home *** CD-ROM | disk | FTP | other *** search
/ 500 MB Nyheder Direkte fra Internet 2 / 500 MB nyheder direkte fra internet CD 2.iso / start / data / text / faq-1005.txt < prev    next >
Text File  |  1995-05-08  |  165KB  |  3,490 lines

  1. Archive-name: neural-net-faq
  2. Last-modified: 1995/04/20
  3. URL: http://wwwipd.ira.uka.de/~prechelt/FAQ/neural-net-faq.html
  4. Maintainer: prechelt@ira.uka.de (Lutz Prechelt)
  5.  
  6.  
  7.   ------------------------------------------------------------------------
  8.         Additions, corrections, or improvements are always welcome.
  9.         Anybody who is willing to contribute any information,
  10.         please email me; if it is relevant, I will incorporate it.
  11.  
  12.         The monthly posting departs at the 28th of every month.
  13.   ------------------------------------------------------------------------
  14.  
  15.  
  16. This is a monthly posting to the Usenet newsgroup comp.ai.neural-nets
  17. (and comp.answers, where it should be findable at ANY time). Its
  18. purpose is to provide basic information for individuals who are new to the
  19. field of neural networks or are just beginning to read this group. It shall
  20. help to avoid lengthy discussion of questions that usually arise for
  21. beginners of one or the other kind. 
  22.  
  23.    SO, PLEASE, SEARCH THIS POSTING FIRST IF YOU HAVE A QUESTION
  24.                            and
  25.    DON'T POST ANSWERS TO FAQs: POINT THE ASKER TO THIS POSTING
  26.  
  27. This posting is archived in the periodic posting archive on host
  28. rtfm.mit.edu (and on some other hosts as well). Look in the anonymous
  29. ftp directory "/pub/usenet/news.answers", the filename is as given in the
  30. 'Archive-name:' header above. If you do not have anonymous ftp access,
  31. you can access the archives by mail server as well. Send an E-mail
  32. message to mail-server@rtfm.mit.edu with "help" and "index" in the
  33. body on separate lines for more information.
  34.  
  35. For those of you who read this posting anywhere other than in
  36. comp.ai.neural-nets: To read comp.ai.neural-nets (or post articles to it)
  37. you need Usenet News access. Try the commands, 'xrn', 'rn', 'nn', or 'trn'
  38. on your Unix machine, 'news' on your VMS machine, or ask a local
  39. guru.
  40.  
  41. This monthly posting is also available as a hypertext document in WWW
  42. (World Wide Web) under the URL 
  43. "http://wwwipd.ira.uka.de/~prechelt/FAQ/neural-net-faq.html"
  44.  
  45. The monthly posting is not meant to discuss any topic exhaustively.
  46.  
  47. Disclaimer: 
  48.    This posting is provided 'as is'.
  49.    No warranty whatsoever is expressed or implied, 
  50.    in particular, no warranty that the information contained herein
  51.    is correct or useful in any way, although both is intended.
  52.  
  53. To find the answer of question number 'x', search for the string
  54. "x. A:" (so the answer to question 12 is at   12. A:  )
  55.  
  56.  
  57. And now, in the end, we begin: 
  58.  
  59. ========== Questions ========== 
  60. ********************************
  61.  
  62.  1. What is this newsgroup for? How shall it be used? 
  63.  2. What is a neural network (NN)? 
  64.  3. What can you do with a Neural Network and what not? 
  65.  4. Who is concerned with Neural Networks? 
  66.  
  67.  5. What does 'backprop' mean? What is 'overfitting'? 
  68.  6. Why use a bias input? Why activation functions? 
  69.  7. How many hidden units should I use? 
  70.  8. How many learning methods for NNs exist? Which? 
  71.  9. What about Genetic Algorithms? 
  72.  10. What about Fuzzy Logic? 
  73.  11. How are NNs related to statistical methods? 
  74.  
  75.  12. Good introductory literature about Neural Networks? 
  76.  13. Any journals and magazines about Neural Networks? 
  77.  14. The most important conferences concerned with Neural
  78.    Networks? 
  79.  15. Neural Network Associations? 
  80.  16. Other sources of information about NNs? 
  81.  
  82.  17. Freely available software packages for NN simulation? 
  83.  18. Commercial software packages for NN simulation? 
  84.  19. Neural Network hardware? 
  85.  
  86.  20. Databases for experimentation with NNs? 
  87.  
  88. ========== Answers ========== 
  89. ******************************
  90.  
  91.  1. A: What is this newsgroup for? How shall it be
  92.  =================================================
  93.    used?
  94.    =====
  95.  
  96.    The newsgroup comp.ai.neural-nets is intended as a forum for
  97.    people who want to use or explore the capabilities of Artificial
  98.    Neural Networks or Neural-Network-like structures.
  99.  
  100.    There should be the following types of articles in this newsgroup:
  101.  
  102.     1. Requests
  103.     +++++++++++
  104.  
  105.       Requests are articles of the form "I am looking for
  106.       X" where X is something public like a book, an article, a
  107.       piece of software. The most important about such a request
  108.       is to be as specific as possible!
  109.  
  110.       If multiple different answers can be expected, the person
  111.       making the request should prepare to make a summary of
  112.       the answers he/she got and announce to do so with a
  113.       phrase like "Please reply by email, I'll
  114.       summarize to the group" at the end of the posting.
  115.  
  116.       The Subject line of the posting should then be something
  117.       like "Request: X" 
  118.  
  119.     2. Questions
  120.     ++++++++++++
  121.  
  122.       As opposed to requests, questions ask for a larger piece of
  123.       information or a more or less detailed explanation of
  124.       something. To avoid lots of redundant traffic it is important
  125.       that the poster provides with the question all information
  126.       s/he already has about the subject asked and state the
  127.       actual question as precise and narrow as possible. The
  128.       poster should prepare to make a summary of the answers
  129.       s/he got and announce to do so with a phrase like 
  130.       "Please reply by email, I'll summarize to
  131.       the group" at the end of the posting.
  132.  
  133.       The Subject line of the posting should be something like 
  134.       "Question: this-and-that" or have the form of a
  135.       question (i.e., end with a question mark) 
  136.  
  137.     3. Answers
  138.     ++++++++++
  139.  
  140.       These are reactions to questions or requests. As a rule of
  141.       thumb articles of type "answer" should be rare. Ideally, in
  142.       most cases either the answer is too specific to be of general
  143.       interest (and should thus be e-mailed to the poster) or a
  144.       summary was announced with the question or request (and
  145.       answers should thus be e-mailed to the poster).
  146.  
  147.       The subject lines of answers are automatically adjusted by
  148.       the news software. Note that sometimes longer threads of
  149.       discussion evolve from an answer to a question or request.
  150.       In this case posters should change the subject line suitably
  151.       as soon as the topic goes too far away from the one
  152.       announced in the original subject line. You can still carry
  153.       along the old subject in parentheses in the form 
  154.       "Subject: new subject (was: old subject)" 
  155.  
  156.     4. Summaries
  157.     ++++++++++++
  158.  
  159.       In all cases of requests or questions the answers for which
  160.       can be assumed to be of some general interest, the poster of
  161.       the request or question shall summarize the answers he/she
  162.       received. Such a summary should be announced in the
  163.       original posting of the question or request with a phrase
  164.       like "Please answer by email, I'll
  165.       summarize"
  166.  
  167.       In such a case, people who answer to a question should
  168.       NOT post their answer to the newsgroup but instead mail
  169.       them to the poster of the question who collects and reviews
  170.       them. After about 5 to 20 days after the original posting, its
  171.       poster should make the summary of answers and post it to
  172.       the newsgroup.
  173.  
  174.       Some care should be invested into a summary: 
  175.        o simple concatenation of all the answers is not
  176.          enough: instead, redundancies, irrelevancies,
  177.          verbosities, and errors should be filtered out (as good
  178.          as possible) 
  179.        o the answers should be separated clearly 
  180.        o the contributors of the individual answers should be
  181.          identifiable (unless they requested to remain
  182.          anonymous [yes, that happens]) 
  183.        o the summary should start with the "quintessence" of
  184.          the answers, as seen by the original poster 
  185.        o A summary should, when posted, clearly be
  186.          indicated to be one by giving it a Subject line
  187.          starting with "SUMMARY:" 
  188.       Note that a good summary is pure gold for the rest of the
  189.       newsgroup community, so summary work will be most
  190.       appreciated by all of us. Good summaries are more valuable
  191.       than any moderator ! :-) 
  192.  
  193.     5. Announcements
  194.     ++++++++++++++++
  195.  
  196.       Some articles never need any public reaction. These are
  197.       called announcements (for instance for a workshop,
  198.       conference or the availability of some technical report or
  199.       software system).
  200.  
  201.       Announcements should be clearly indicated to be such by
  202.       giving them a subject line of the form "Announcement:
  203.       this-and-that" 
  204.  
  205.     6. Reports
  206.     ++++++++++
  207.  
  208.       Sometimes people spontaneously want to report something
  209.       to the newsgroup. This might be special experiences with
  210.       some software, results of own experiments or conceptual
  211.       work, or especially interesting information from
  212.       somewhere else.
  213.  
  214.       Reports should be clearly indicated to be such by giving
  215.       them a subject line of the form "Report:
  216.       this-and-that" 
  217.  
  218.     7. Discussions
  219.     ++++++++++++++
  220.  
  221.       An especially valuable possibility of Usenet is of course
  222.       that of discussing a certain topic with hundreds of potential
  223.       participants. All traffic in the newsgroup that can not be
  224.       subsumed under one of the above categories should belong
  225.       to a discussion.
  226.  
  227.       If somebody explicitly wants to start a discussion, he/she
  228.       can do so by giving the posting a subject line of the form 
  229.       "Subject: Discussion: this-and-that"
  230.  
  231.       It is quite difficult to keep a discussion from drifting into
  232.       chaos, but, unfortunately, as many many other newsgroups
  233.       show there seems to be no secure way to avoid this. On the
  234.       other hand, comp.ai.neural-nets has not had many
  235.       problems with this effect in the past, so let's just go and
  236.       hope... 
  237.  
  238.    ------------------------------------------------------------------------
  239.  
  240.  2. A: What is a neural network (NN)?
  241.  ====================================
  242.  
  243.    First of all, when we are talking about a neural network, we
  244.    *should* usually better say "artificial neural network" (ANN),
  245.    because that is what we mean most of the time. Biological neural
  246.    networks are much more complicated in their elementary
  247.    structures than the mathematical models we use for ANNs.
  248.  
  249.    A vague description is as follows:
  250.  
  251.    An ANN is a network of many very simple processors ("units"),
  252.    each possibly having a (small amount of) local memory. The units
  253.    are connected by unidirectional communication channels
  254.    ("connections"), which carry numeric (as opposed to symbolic)
  255.    data. The units operate only on their local data and on the inputs
  256.    they receive via the connections.
  257.  
  258.    The design motivation is what distinguishes neural networks from
  259.    other mathematical techniques:
  260.  
  261.    A neural network is a processing device, either an algorithm, or
  262.    actual hardware, whose design was motivated by the design and
  263.    functioning of human brains and components thereof.
  264.  
  265.    Most neural networks have some sort of "training" rule whereby
  266.    the weights of connections are adjusted on the basis of presented
  267.    patterns. In other words, neural networks "learn" from examples,
  268.    just like children learn to recognize dogs from examples of dogs,
  269.    and exhibit some structural capability for generalization.
  270.  
  271.    Neural networks normally have great potential for parallelism,
  272.    since the computations of the components are independent of each
  273.    other. 
  274.  
  275.    ------------------------------------------------------------------------
  276.  
  277.  3. A: What can you do with a Neural Network and
  278.  ===============================================
  279.    what not?
  280.    =========
  281.  
  282.    In principle, NNs can compute any computable function, i.e. they
  283.    can do everything a normal digital computer can do. Especially
  284.    anything that can be represented as a mapping between vector
  285.    spaces can be approximated to arbitrary precision by feedforward
  286.    NNs (which is the most often used type).
  287.  
  288.    In practice, NNs are especially useful for mapping problems which
  289.    are tolerant of some errors, have lots of example data available,
  290.    but to which hard and fast rules can not easily be applied. NNs
  291.    are, at least today, difficult to apply successfully to problems that
  292.    concern manipulation of symbols and memory. 
  293.  
  294.    ------------------------------------------------------------------------
  295.  
  296.  4. A: Who is concerned with Neural Networks?
  297.  ============================================
  298.  
  299.    Neural Networks are interesting for quite a lot of very dissimilar
  300.    people: 
  301.     o Computer scientists want to find out about the properties
  302.       of non-symbolic information processing with neural nets
  303.       and about learning systems in general. 
  304.     o Engineers of many kinds want to exploit the capabilities of
  305.       neural networks on many areas (e.g. signal processing) to
  306.       solve their application problems. 
  307.     o Cognitive scientists view neural networks as a possible
  308.       apparatus to describe models of thinking and conscience
  309.       (High-level brain function). 
  310.     o Neuro-physiologists use neural networks to describe and
  311.       explore medium-level brain function (e.g. memory, sensory
  312.       system, motorics). 
  313.     o Physicists use neural networks to model phenomena in
  314.       statistical mechanics and for a lot of other tasks. 
  315.     o Biologists use Neural Networks to interpret nucleotide
  316.       sequences. 
  317.     o Philosophers and some other people may also be interested
  318.       in Neural Networks for various reasons. 
  319.  
  320.    ------------------------------------------------------------------------
  321.  
  322.  5. A: What does 'backprop' mean? What is
  323.  ========================================
  324.    'overfitting'? 
  325.    ===============
  326.  
  327.    'Backprop' is an abbreviation for 'backpropagation of error' which
  328.    is the most widely used learning method for neural networks
  329.    today. Although it has many disadvantages, which could be
  330.    summarized in the sentence "You are almost not knowing what
  331.    you are actually doing when using backpropagation" :-) it has
  332.    pretty much success on practical applications and is relatively easy
  333.    to apply.
  334.  
  335.    It is for the training of layered (i.e., nodes are grouped in layers)
  336.    feedforward (i.e., the arcs joining nodes are unidirectional, and
  337.    there are no cycles) nets (often called "multi layer perceptrons").
  338.  
  339.    Back-propagation needs a teacher that knows the correct output
  340.    for any input ("supervised learning") and uses gradient descent on
  341.    the error (as provided by the teacher) to train the weights. The
  342.    activation function is (usually) a sigmoidal (i.e., bounded above
  343.    and below, but differentiable) function of a weighted sum of the
  344.    nodes inputs.
  345.  
  346.    The use of a gradient descent algorithm to train its weights makes
  347.    it slow to train; but being a feedforward algorithm, it is quite rapid
  348.    during the recall phase.
  349.  
  350.    Literature:
  351.       Rumelhart, D. E. and McClelland, J. L. (1986): Parallel
  352.       Distributed Processing: Explorations in the Microstructure
  353.       of Cognition (volume 1, pp 318-362). The MIT Press. 
  354.  
  355.    (this is the classic one) or one of the dozens of other books or
  356.    articles on backpropagation (see also answer "books").
  357.  
  358.    'Overfitting' (often also called 'overtraining' or 'overlearning') is
  359.    the phenomenon that in most cases a network gets worse instead
  360.    of better after a certain point during training when it is trained to
  361.    as low errors as possible. This is because such long training may
  362.    make the network 'memorize' the training patterns, including all
  363.    of their peculiarities. However, one is usually interested in the
  364.    generalization of the network, i.e., the error it exhibits on examples
  365.    NOT seen during training. Learning the peculiarities of the
  366.    training set makes the generalization worse. The network should
  367.    only learn the general structure of the examples. 
  368.  
  369.    There are various methods to fight overfitting. The two most
  370.    important classes of such methods are regularization methods
  371.    (such as weight decay) and early stopping. Regularization
  372.    methods try to limit the complexity of the network such that it is
  373.    unable to learn peculiarities. Early stopping aims at stopping the
  374.    training at the point of optimal generalization. A description of the
  375.    early stopping method can for instance be found in section 3.3 of 
  376.    /pub/papers/techreports/1994-21.ps.Z on ftp.ira.uka.de
  377.    (anonymous ftp). 
  378.  
  379.    ------------------------------------------------------------------------
  380.  
  381.  6. A: Why use a bias input? Why activation
  382.  ==========================================
  383.    functions? 
  384.    ===========
  385.  
  386.    One way of looking at the need for bias inputs is that the inputs to
  387.    each unit in the net define an N-dimensional space, and the unit
  388.    draws a hyperplane through that space, producing an "on" output
  389.    on one side and an "off" output on the other. (With sigmoid units
  390.    the plane will not be sharp -- there will be some gray area of
  391.    intermediate values near the separating plane -- but ignore this
  392.    for now.)
  393.    The weights determine where this hyperplane is in the input space.
  394.    Without a bias input, this separating plane is constrained to pass
  395.    through the origin of the hyperspace defined by the inputs. For
  396.    some problems that's OK, but in many problems the plane would
  397.    be much more useful somewhere else. If you have many units in a
  398.    layer, they share the same input space and without bias would
  399.    ALL be constrained to pass through the origin. 
  400.  
  401.    Activation functions are needed to introduce nonlinearity into the
  402.    network. Without nonlinearity, hidden units would not make nets
  403.    more powerful than just plain perceptrons (which do not have any
  404.    hidden units, just input and output units). The reason is that a
  405.    composition of linear functions is again a linear function.
  406.    However, it is just the nonlinearity (i.e, the capability to represent
  407.    nonlinear functions) that makes multilayer networks so powerful.
  408.    Almost any nonlinear function does the job, although for
  409.    backpropagation learning it must be differentiable and it helps if
  410.    the function is bounded; the popular sigmoidal functions and
  411.    gaussian functions are the most common choices.
  412.  
  413.    ------------------------------------------------------------------------
  414.  
  415.  7. A: How many hidden units should I use? 
  416.  ==========================================
  417.  
  418.    There is no way to determine a good network topology just from
  419.    the number of inputs and outputs. It depends critically on the
  420.    number of training examples and the complexity of the
  421.    classification you are trying to learn. There are problems with one
  422.    input and one output that require millions of hidden units, and
  423.    problems with a million inputs and a million outputs that require
  424.    only one hidden unit, or none at all.
  425.    Some books and articles offer "rules of thumb" for choosing a
  426.    topopology -- Ninputs plus Noutputs dividied by two, maybe with
  427.    a square root in there somewhere -- but such rules are total
  428.    garbage. Other rules relate to the number of examples available:
  429.    Use at most so many hidden units that the number of weights in
  430.    the network times 10 is smaller than the number of examples.
  431.    Such rules are only concerned with overfitting and are unreliable
  432.    as well. 
  433.  
  434.    ------------------------------------------------------------------------
  435.  
  436.  8. A: How many learning methods for NNs exist?
  437.  ==============================================
  438.    Which?
  439.    ======
  440.  
  441.    There are many many learning methods for NNs by now. Nobody
  442.    knows exactly how many. New ones (at least variations of existing
  443.    ones) are invented every week. Below is a collection of some of the
  444.    most well known methods; not claiming to be complete.
  445.  
  446.    The main categorization of these methods is the distinction of
  447.    supervised from unsupervised learning:
  448.  
  449.    In supervised learning, there is a "teacher" who in the learning
  450.    phase "tells" the net how well it performs ("reinforcement
  451.    learning") or what the correct behavior would have been ("fully
  452.    supervised learning").
  453.  
  454.    In unsupervised learning the net is autonomous: it just looks at the
  455.    data it is presented with, finds out about some of the properties of
  456.    the data set and learns to reflect these properties in its output.
  457.    What exactly these properties are, that the network can learn to
  458.    recognise, depends on the particular network model and learning
  459.    method.
  460.  
  461.    Many of these learning methods are closely connected with a
  462.    certain (class of) network topology.
  463.  
  464.    Now here is the list, just giving some names:
  465.  
  466.    1. UNSUPERVISED LEARNING (i.e. without a "teacher"):
  467.         1). Feedback Nets:
  468.            a). Additive Grossberg (AG)
  469.            b). Shunting Grossberg (SG)
  470.            c). Binary Adaptive Resonance Theory (ART1)
  471.            d). Analog Adaptive Resonance Theory (ART2, ART2a)
  472.            e). Discrete Hopfield (DH)
  473.            f). Continuous Hopfield (CH)
  474.            g). Discrete Bidirectional Associative Memory (BAM)
  475.            h). Temporal Associative Memory (TAM)
  476.            i). Adaptive Bidirectional Associative Memory (ABAM)
  477.            j). Kohonen Self-organizing Map/Topology-preserving map (SOM/TPM)
  478.            k). Competitive learning
  479.         2). Feedforward-only Nets:
  480.            a). Learning Matrix (LM)
  481.            b). Driver-Reinforcement Learning (DR)
  482.            c). Linear Associative Memory (LAM)
  483.            d). Optimal Linear Associative Memory (OLAM)
  484.            e). Sparse Distributed Associative Memory (SDM)
  485.            f). Fuzzy Associative Memory (FAM)
  486.            g). Counterprogation (CPN)
  487.  
  488.    2. SUPERVISED LEARNING (i.e. with a "teacher"):
  489.         1). Feedback Nets:
  490.            a). Brain-State-in-a-Box (BSB)
  491.            b). Fuzzy Congitive Map (FCM)
  492.            c). Boltzmann Machine (BM)
  493.            d). Mean Field Annealing (MFT)
  494.            e). Recurrent Cascade Correlation (RCC)
  495.            f). Learning Vector Quantization (LVQ)
  496.            g). Backpropagation through time (BPTT)
  497.            h). Real-time recurrent learning (RTRL)
  498.            i). Recurrent Extended Kalman Filter (EKF)
  499.         2). Feedforward-only Nets:
  500.            a). Perceptron
  501.            b). Adaline, Madaline
  502.            c). Backpropagation (BP)
  503.            d). Cauchy Machine (CM)
  504.            e). Adaptive Heuristic Critic (AHC)
  505.            f). Time Delay Neural Network (TDNN)
  506.            g). Associative Reward Penalty (ARP)
  507.            h). Avalanche Matched Filter (AMF)
  508.            i). Backpercolation (Perc)
  509.            j). Artmap
  510.            k). Adaptive Logic Network (ALN)
  511.            l). Cascade Correlation (CasCor)
  512.            m). Extended Kalman Filter(EKF)
  513.  
  514.    ------------------------------------------------------------------------
  515.  
  516.  9. A: What about Genetic Algorithms?
  517.  ====================================
  518.  
  519.    There are a number of definitions of GA (Genetic Algorithm). A
  520.    possible one is
  521.  
  522.      A GA is an optimization program
  523.      that starts with 
  524.      a population of encoded procedures,       (Creation of Life :-> )
  525.      mutates them stochastically,              (Get cancer or so :-> )
  526.      and uses a selection process              (Darwinism)
  527.      to prefer the mutants with high fitness
  528.      and perhaps a recombination process       (Make babies :-> )
  529.      to combine properties of (preferably) the succesful mutants.
  530.  
  531.    Genetic Algorithms are just a special case of the more general idea
  532.    of ``evolutionary computation''. There is a newsgroup that is
  533.    dedicated to the field of evolutionary computation called
  534.    comp.ai.genetic. It has a detailed FAQ posting which, for instance,
  535.    explains the terms "Genetic Algorithm", "Evolutionary
  536.    Programming", "Evolution Strategy", "Classifier System", and
  537.    "Genetic Programming". That FAQ also contains lots of pointers
  538.    to relevant literature, software, other sources of information, et
  539.    cetera et cetera. Please see the comp.ai.genetic FAQ for further
  540.    information. 
  541.  
  542.    ------------------------------------------------------------------------
  543.  
  544. 10. A: What about Fuzzy Logic?
  545. ==============================
  546.  
  547.    Fuzzy Logic is an area of research based on the work of L.A.
  548.    Zadeh. It is a departure from classical two-valued sets and logic,
  549.    that uses "soft" linguistic (e.g. large, hot, tall) system variables and
  550.    a continuous range of truth values in the interval [0,1], rather
  551.    than strict binary (True or False) decisions and assignments.
  552.  
  553.    Fuzzy logic is used where a system is difficult to model exactly
  554.    (but an inexact model is available), is controlled by a human
  555.    operator or expert, or where ambiguity or vagueness is common. A
  556.    typical fuzzy system consists of a rule base, membership functions,
  557.    and an inference procedure.
  558.  
  559.    Most Fuzzy Logic discussion takes place in the newsgroup
  560.    comp.ai.fuzzy, but there is also some work (and discussion) about
  561.    combining fuzzy logic with Neural Network approaches in
  562.    comp.ai.neural-nets.
  563.  
  564.    For more details see (for example): 
  565.  
  566.    Klir, G.J. and Folger, T.A.: Fuzzy Sets, Uncertainty, and
  567.    Information Prentice-Hall, Englewood Cliffs, N.J., 1988. 
  568.    Kosko, B.: Neural Networks and Fuzzy Systems Prentice Hall,
  569.    Englewood Cliffs, NJ, 1992. 
  570.  
  571.    ------------------------------------------------------------------------
  572.  
  573. 11. A: How are NNs related to statistical methods? 
  574. ===================================================
  575.  
  576.    There is considerable overlap between the fields of neural
  577.    networks and statistics.
  578.    Statistics is concerned with data analysis. In neural network
  579.    terminology, statistical inference means learning to generalize
  580.    from noisy data. Some neural networks are not concerned with
  581.    data analysis (e.g., those intended to model biological systems) and
  582.    therefore have little to do with statistics. Some neural networks do
  583.    not learn (e.g., Hopfield nets) and therefore have little to do with
  584.    statistics. Some neural networks can learn successfully only from
  585.    noise-free data (e.g., ART or the perceptron rule) and therefore
  586.    would not be considered statistical methods. But most neural
  587.    networks that can learn to generalize effectively from noisy data
  588.    are similar or identical to statistical methods. For example: 
  589.     o Feedforward nets with no hidden layer (including
  590.       functional-link neural nets and higher-order neural nets)
  591.       are basically generalized linear models. 
  592.     o Feedforward nets with one hidden layer are closely related
  593.       to projection pursuit regression. 
  594.     o Probabilistic neural nets are identical to kernel
  595.       discriminant analysis. 
  596.     o Kohonen nets for adaptive vector quantization are very
  597.       similar to k-means cluster analysis. 
  598.     o Hebbian learning is closely related to principal component
  599.       analysis. 
  600.    Some neural network areas that appear to have no close relatives
  601.    in the existing statistical literature are: 
  602.     o Kohonen's self-organizing maps. 
  603.     o Reinforcement learning ((although this is treated in the
  604.       operations research literature as Markov decision
  605.       processes). 
  606.     o Stopped training (the purpose and effect of stopped training
  607.       are similar to shrinkage estimation, but the method is quite
  608.       different). 
  609.    Feedforward nets are a subset of the class of nonlinear regression
  610.    and discrimination models. Statisticians have studied the
  611.    properties of this general class but had not considered the specific
  612.    case of feedforward neural nets before such networks were
  613.    popularized in the neural network field. Still, many results from
  614.    the statistical theory of nonlinear models apply directly to
  615.    feedforward nets, and the methods that are commonly used for
  616.    fitting nonlinear models, such as various Levenberg-Marquardt
  617.    and conjugate gradient algorithms, can be used to train
  618.    feedforward nets. 
  619.  
  620.    While neural nets are often defined in terms of their algorithms or
  621.    implementations, statistical methods are usually defined in terms
  622.    of their results. The arithmetic mean, for example, can be
  623.    computed by a (very simple) backprop net, by applying the usual
  624.    formula SUM(x_i)/n, or by various other methods. What you get
  625.    is still an arithmetic mean regardless of how you compute it. So a
  626.    statistician would consider standard backprop, Quickprop, and
  627.    Levenberg-Marquardt as different algorithms for implementing
  628.    the same statistical model such as a feedforward net. On the other
  629.    hand, different training criteria, such as least squares and cross
  630.    entropy, are viewed by statisticians as fundamentally different
  631.    estimation methods with different statistical properties. 
  632.  
  633.    It is sometimes claimed that neural networks, unlike statistical
  634.    models, require no distributional assumptions. In fact, neural
  635.    networks involve exactly the same sort of distributional
  636.    assumptions as statistical models, but statisticians study the
  637.    consequences and importance of these assumptions while most
  638.    neural networkers ignore them. For example, least-squares
  639.    training methods are widely used by statisticians and neural
  640.    networkers. Statisticians realize that least-squares training
  641.    involves implicit distributional assumptions in that least-squares
  642.    estimates have certain optimality properties for noise that is
  643.    normally distributed with equal variance for all training cases and
  644.    that is independent between different cases. These optimality
  645.    properties are consequences of the fact that least-squares
  646.    estimation is maximum likelihood under those conditions.
  647.    Similarly, cross-entropy is maximum likelihood for noise with a
  648.    Bernoulli distribution. If you study the distributional assumptions,
  649.    then you can recognize and deal with violations of the
  650.    assumptions. For example, if you have normally distributed noise
  651.    but some training cases have greater noise variance than others,
  652.    then you may be able to use weighted least squares instead of
  653.    ordinary least squares to obtain more efficient estimates. 
  654.  
  655.    Here are a few references: 
  656.  
  657.    Chatfield, C. (1993), "Neural networks: Forecasting breakthrough
  658.    or passing fad", International Journal of Forecasting, 9, 1-3. 
  659.  
  660.    Cheng, B. and Titterington, D.M. (1994), "Neural Networks: A
  661.    Review from a Statistical Perspective", Statistical Science, 9,
  662.    2-54. 
  663.  
  664.    Geman, S., Bienenstock, E. and Doursat, R. (1992), "Neural
  665.    Networks and the Bias/Variance Dilemma", Neural Computation,
  666.    4, 1-58. 
  667.  
  668.    Kushner, H. & Clark, D. (1978), _Stochastic Approximation
  669.    Methods for Constrained and Unconstrained Systems_,
  670.    Springer-Verlag. 
  671.  
  672.    Michie, D., Spiegelhalter, D.J. and Taylor, C.C. (1994), _Machine
  673.    Learning, Neural and Statistical Classification_, Ellis Horwood. 
  674.  
  675.    Ripley, B.D. (1993), "Statistical Aspects of Neural Networks", in
  676.    O.E. Barndorff-Nielsen, J.L. Jensen and W.S. Kendall, eds.,
  677.    _Networks and Chaos: Statistical and Probabilistic Aspects_,
  678.    Chapman & Hall. ISBN 0 412 46530 2. 
  679.  
  680.    Sarle, W.S. (1994), "Neural Networks and Statistical Models,"
  681.    Proceedings of the Nineteenth Annual SAS Users Group
  682.    International Conference, Cary, NC: SAS Institute, pp 1538-1550.
  683.    ( ftp://ftp.sas.com/pub/sugi19/neural/neural1.ps)
  684.  
  685.    White, H. (1989), "Learning in Artificial Neural Networks: A
  686.    Statistical Perspective," Neural Computation, 1, 425-464. 
  687.  
  688.    White, H. (1992), _Artificial Neural Networks: Approximation
  689.    and Learning Theory_, Blackwell. 
  690.  
  691.    ------------------------------------------------------------------------
  692.  
  693. 12. A: Good introductory literature about Neural
  694. ================================================
  695.    Networks?
  696.    =========
  697.  
  698.    0.) The best (subjectively, of course -- please don't flame me):
  699.    ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  700.  
  701.    Haykin, S. (1994). Neural Networks, a Comprehensive
  702.    Foundation. Macmillan, New York, NY. "A very readable, well
  703.    written intermediate to advanced text on NNs Perspective is
  704.    primarily one of pattern recognition, estimation and signal
  705.    processing. However, there are well-written chapters on
  706.    neurodynamics and VLSI implementation. Though there is
  707.    emphasis on formal mathematical models of NNs as universal
  708.    approximators, statistical estimators, etc., there are also examples
  709.    of NNs used in practical applications. The problem sets at the end
  710.    of each chapter nicely complement the material. In the
  711.    bibliography are over 1000 references. If one buys only one book
  712.    on neural networks, this should be it."
  713.  
  714.    Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the
  715.    Theory of Neural Computation. Addison-Wesley: Redwood City,
  716.    California. ISBN 0-201-50395-6 (hardbound) and
  717.    0-201-51560-1 (paperbound) Comments: "My first impression is
  718.    that this one is by far the best book on the topic. And it's below
  719.    $30 for the paperback."; "Well written, theoretical (but not
  720.    overwhelming)"; It provides a good balance of model development,
  721.    computational algorithms, and applications. The mathematical
  722.    derivations are especially well done"; "Nice mathematical analysis
  723.    on the mechanism of different learning algorithms"; "It is NOT
  724.    for mathematical beginner. If you don't have a good grasp of
  725.    higher level math, this book can be really tough to get through."
  726.  
  727.    Masters,Timothy (1994). Practical Neural Network Recipes in
  728.    C++. Academic Press, ISBN 0-12-479040-2, US $45 incl. disks.
  729.    "Lots of very good practical advice which most other books lack."
  730.  
  731.    1.) Books for the beginner:
  732.    +++++++++++++++++++++++++++
  733.  
  734.    Aleksander, I. and Morton, H. (1990). An Introduction to Neural
  735.    Computing. Chapman and Hall. (ISBN 0-412-37780-2).
  736.    Comments: "This book seems to be intended for the first year of
  737.    university education."
  738.  
  739.    Beale, R. and Jackson, T. (1990). Neural Computing, an
  740.    Introduction. Adam Hilger, IOP Publishing Ltd : Bristol. (ISBN
  741.    0-85274-262-2). Comments: "It's clearly written. Lots of hints as
  742.    to how to get the adaptive models covered to work (not always
  743.    well explained in the original sources). Consistent mathematical
  744.    terminology. Covers perceptrons, error-backpropagation, Kohonen
  745.    self-org model, Hopfield type models, ART, and associative
  746.    memories."
  747.  
  748.    Dayhoff, J. E. (1990). Neural Network Architectures: An
  749.    Introduction. Van Nostrand Reinhold: New York. Comments:
  750.    "Like Wasserman's book, Dayhoff's book is also very easy to
  751.    understand".
  752.  
  753.    Fausett, L. V. (1994). Fundamentals of Neural Networks:
  754.    Architectures, Algorithms and Applications, Prentice Hall, ISBN
  755.    0-13-334186-0. Also published as a Prentice Hall International
  756.    Edition, ISBN 0-13-042250-9. Sample softeware (source code
  757.    listings in C and Fortran) is included in an Instructor's Manual.
  758.    "Intermediate in level between Wasserman and
  759.    Hertz/Krogh/Palmer. Algorithms for a broad range of neural
  760.    networks, including a chapter on Adaptive Resonace Theory with
  761.    ART2. Simple examples for each network."
  762.  
  763.    Freeman, James (1994). Simulating Neural Networks with
  764.    Mathematica, Addison-Wesley, ISBN: 0-201-56629-X. Helps
  765.    the reader make his own NNs. The mathematica code for the
  766.    programs in the book is also available through the internet: Send
  767.    mail to MathSource@wri.com or try http://www.wri.com/ on the
  768.    World Wide Web.
  769.  
  770.    Hecht-Nielsen, R. (1990). Neurocomputing. Addison Wesley.
  771.    Comments: "A good book", "comprises a nice historical overview
  772.    and a chapter about NN hardware. Well structured prose. Makes
  773.    important concepts clear."
  774.  
  775.    McClelland, J. L. and Rumelhart, D. E. (1988). Explorations in
  776.    Parallel Distributed Processing: Computational Models of
  777.    Cognition and Perception (software manual). The MIT Press.
  778.    Comments: "Written in a tutorial style, and includes 2 diskettes of
  779.    NN simulation programs that can be compiled on MS-DOS or
  780.    Unix (and they do too !)"; "The programs are pretty reasonable as
  781.    an introduction to some of the things that NNs can do."; "There
  782.    are *two* editions of this book. One comes with disks for the IBM
  783.    PC, the other comes with disks for the Macintosh".
  784.  
  785.    McCord Nelson, M. and Illingworth, W.T. (1990). A Practical
  786.    Guide to Neural Nets. Addison-Wesley Publishing Company, Inc.
  787.    (ISBN 0-201-52376-0). Comments: "No formulas at all"; "It
  788.    does not have much detailed model development (very few
  789.    equations), but it does present many areas of application. It
  790.    includes a chapter on current areas of research. A variety of
  791.    commercial applications is discussed in chapter 1. It also includes a
  792.    program diskette with a fancy graphical interface (unlike the PDP
  793.    diskette)".
  794.  
  795.    Muller, B. and Reinhardt, J. (1990). Neural Networks, An
  796.    Introduction. Springer-Verlag: Berlin Heidelberg New York
  797.    (ISBN: 3-540-52380-4 and 0-387-52380-4). Comments: The
  798.    book was developed out of a course on neural-network models
  799.    with computer demonstrations that was taught by the authors to
  800.    Physics students. The book comes together with a PC-diskette.
  801.    The book is divided into three parts: (1) Models of Neural
  802.    Networks; describing several architectures and learing rules,
  803.    including the mathematics. (2) Statistical Physiscs of Neural
  804.    Networks; "hard-core" physics section developing formal theories
  805.    of stochastic neural networks. (3) Computer Codes; explanation
  806.    about the demonstration programs. First part gives a nice
  807.    introduction into neural networks together with the formulas.
  808.    Together with the demonstration programs a 'feel' for neural
  809.    networks can be developed.
  810.  
  811.    Orchard, G.A. & Phillips, W.A. (1991). Neural Computation: A
  812.    Beginner's Guide. Lawrence Earlbaum Associates: London.
  813.    Comments: "Short user-friendly introduction to the area, with a
  814.    non-technical flavour. Apparently accompanies a software
  815.    package, but I haven't seen that yet".
  816.  
  817.    Rao, V.B & H.V. (1993). C++ Neural Networks and Fuzzy Logic.
  818.    MIS:Press, ISBN 1-55828-298-x, US $45 incl. disks. "Probably
  819.    not 'leading edge' stuff but detailed enough to get your hands
  820.    dirty!"
  821.  
  822.    Wasserman, P. D. (1989). Neural Computing: Theory & Practice.
  823.    Van Nostrand Reinhold: New York. (ISBN 0-442-20743-3)
  824.    Comments: "Wasserman flatly enumerates some common
  825.    architectures from an engineer's perspective ('how it works')
  826.    without ever addressing the underlying fundamentals ('why it
  827.    works') - important basic concepts such as clustering, principal
  828.    components or gradient descent are not treated. It's also full of
  829.    errors, and unhelpful diagrams drawn with what appears to be
  830.    PCB board layout software from the '70s. For anyone who wants
  831.    to do active research in the field I consider it quite inadequate";
  832.    "Okay, but too shallow"; "Quite easy to understand"; "The best
  833.    bedtime reading for Neural Networks. I have given this book to
  834.    numerous collegues who want to know NN basics, but who never
  835.    plan to implement anything. An excellent book to give your
  836.    manager."
  837.  
  838.    Wasserman, P.D. (1993). Advanced Methods in Neural
  839.    Computing. Van Nostrand Reinhold: New York (ISBN:
  840.    0-442-00461-3). Comments: Several neural network topics are
  841.    discussed e.g. Probalistic Neural Networks, Backpropagation and
  842.    beyond, neural control, Radial Basis Function Networks, Neural
  843.    Engineering. Furthermore, several subjects related to neural
  844.    networks are mentioned e.g. genetic algorithms, fuzzy logic, chaos.
  845.    Just the functionality of these subjects is described; enough to get
  846.    you started. Lots of references are given to more elaborate
  847.    descriptions. Easy to read, no extensive mathematical background
  848.    necessary.
  849.  
  850.    2.) The classics:
  851.    +++++++++++++++++
  852.  
  853.    Kohonen, T. (1984). Self-organization and Associative Memory.
  854.    Springer-Verlag: New York. (2nd Edition: 1988; 3rd edition:
  855.    1989). Comments: "The section on Pattern mathematics is
  856.    excellent."
  857.  
  858.    Rumelhart, D. E. and McClelland, J. L. (1986). Parallel
  859.    Distributed Processing: Explorations in the Microstructure of
  860.    Cognition (volumes 1 & 2). The MIT Press. Comments: "As a
  861.    computer scientist I found the two Rumelhart and McClelland
  862.    books really heavy going and definitely not the sort of thing to
  863.    read if you are a beginner."; "It's quite readable, and affordable
  864.    (about $65 for both volumes)."; "THE Connectionist bible".
  865.  
  866.    3.) Introductory journal articles:
  867.    ++++++++++++++++++++++++++++++++++
  868.  
  869.    Hinton, G. E. (1989). Connectionist learning procedures. Artificial
  870.    Intelligence, Vol. 40, pp. 185--234. Comments: "One of the better
  871.    neural networks overview papers, although the distinction
  872.    between network topology and learning algorithm is not always
  873.    very clear. Could very well be used as an introduction to neural
  874.    networks."
  875.  
  876.    Knight, K. (1990). Connectionist, Ideas and Algorithms.
  877.    Communications of the ACM. November 1990. Vol.33 nr.11, pp
  878.    59-74. Comments:"A good article, while it is for most people easy
  879.    to find a copy of this journal."
  880.  
  881.    Kohonen, T. (1988). An Introduction to Neural Computing.
  882.    Neural Networks, vol. 1, no. 1. pp. 3-16. Comments: "A general
  883.    review".
  884.  
  885.    4.) Not-quite-so-introductory literature:
  886.    +++++++++++++++++++++++++++++++++++++++++
  887.  
  888.    Anderson, J. A. and Rosenfeld, E. (Eds). (1988). Neurocomputing:
  889.    Foundations of Research. The MIT Press: Cambridge, MA.
  890.    Comments: "An expensive book, but excellent for reference. It is a
  891.    collection of reprints of most of the major papers in the field." 
  892.  
  893.    Anderson, J. A., Pellionisz, A. and Rosenfeld, E. (Eds). (1990).
  894.    Neurocomputing 2: Directions for Research. The MIT Press:
  895.    Cambridge, MA. Comments: "The sequel to their well-known
  896.    Neurocomputing book."
  897.  
  898.    Caudill, M. and Butler, C. (1990). Naturally Intelligent Systems.
  899.    MIT Press: Cambridge, Massachusetts. (ISBN 0-262-03156-6).
  900.    Comments: "I guess one of the best books I read"; "May not be
  901.    suited for people who want to do some research in the area".
  902.  
  903.    Cichocki, A. and Unbehauen, R. (1994). Neural Networks for
  904.    Optimization and Signal Processing. John Wiley & Sons, West
  905.    Sussex, England, 1993, ISBN 0-471-930105 (hardbound), 526
  906.    pages, $57.95. "Partly a textbook and partly a research
  907.    monograph; introduces the basic concepts, techniques, and models
  908.    related to neural networks and optimization, excluding rigorous
  909.    mathematical details. Accessible to a wide readership with a
  910.    differential calculus background. The main coverage of the book is
  911.    on recurrent neural networks with continuous state variables. The
  912.    book title would be more appropriate without mentioning signal
  913.    processing. Well edited, good illustrations."
  914.  
  915.    Khanna, T. (1990). Foundations of Neural Networks.
  916.    Addison-Wesley: New York. Comments: "Not so bad (with a
  917.    page of erroneous formulas (if I remember well), and #hidden
  918.    layers isn't well described)."; "Khanna's intention in writing his
  919.    book with math analysis should be commended but he made
  920.    several mistakes in the math part".
  921.  
  922.    Kung, S.Y. (1993). Digital Neural Networks, Prentice Hall,
  923.    Englewood Cliffs, NJ.
  924.  
  925.    Levine, D. S. (1990). Introduction to Neural and Cognitive
  926.    Modeling. Lawrence Erlbaum: Hillsdale, N.J. Comments: "Highly
  927.    recommended".
  928.  
  929.    Lippmann, R. P. (April 1987). An introduction to computing with
  930.    neural nets. IEEE Acoustics, Speech, and Signal Processing
  931.    Magazine. vol. 2, no. 4, pp 4-22. Comments: "Much acclaimed as
  932.    an overview of neural networks, but rather inaccurate on several
  933.    points. The categorization into binary and continuous- valued
  934.    input neural networks is rather arbitrary, and may work confusing
  935.    for the unexperienced reader. Not all networks discussed are of
  936.    equal importance."
  937.  
  938.    Maren, A., Harston, C. and Pap, R., (1990). Handbook of Neural
  939.    Computing Applications. Academic Press. ISBN: 0-12-471260-6.
  940.    (451 pages) Comments: "They cover a broad area"; "Introductory
  941.    with suggested applications implementation".
  942.  
  943.    Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural
  944.    Networks Addison-Wesley Publishing Company, Inc. (ISBN
  945.    0-201-12584-6) Comments: "An excellent book that ties together
  946.    classical approaches to pattern recognition with Neural Nets. Most
  947.    other NN books do not even mention conventional approaches."
  948.  
  949.    Rumelhart, D. E., Hinton, G. E. and Williams, R. J. (1986).
  950.    Learning representations by back-propagating errors. Nature, vol
  951.    323 (9 October), pp. 533-536. Comments: "Gives a very good
  952.    potted explanation of backprop NN's. It gives sufficient detail to
  953.    write your own NN simulation."
  954.  
  955.    Simpson, P. K. (1990). Artificial Neural Systems: Foundations,
  956.    Paradigms, Applications and Implementations. Pergamon Press:
  957.    New York. Comments: "Contains a very useful 37 page
  958.    bibliography. A large number of paradigms are presented. On the
  959.    negative side the book is very shallow. Best used as a complement
  960.    to other books".
  961.  
  962.    Zeidenberg. M. (1990). Neural Networks in Artificial Intelligence.
  963.    Ellis Horwood, Ltd., Chichester. Comments: "Gives the AI point
  964.    of view".
  965.  
  966.    Zornetzer, S. F., Davis, J. L. and Lau, C. (1990). An Introduction
  967.    to Neural and Electronic Networks. Academic Press. (ISBN
  968.    0-12-781881-2) Comments: "Covers quite a broad range of
  969.    topics (collection of articles/papers )."; "Provides a primer-like
  970.    introduction and overview for a broad audience, and employs a
  971.    strong interdisciplinary emphasis".
  972.  
  973.    ------------------------------------------------------------------------
  974.  
  975. 13. A: Any journals and magazines about Neural
  976. ==============================================
  977.    Networks?
  978.    =========
  979.  
  980.    [to be added: comments on speed of reviewing and publishing,
  981.                  whether they accept TeX format or ASCII by e-mail, etc.]
  982.  
  983.    A. Dedicated Neural Network Journals:
  984.    +++++++++++++++++++++++++++++++++++++
  985.  
  986.    Title:   Neural Networks
  987.    Publish: Pergamon Press
  988.    Address: Pergamon Journals Inc., Fairview Park, Elmsford, 
  989.             New York 10523, USA and Pergamon Journals Ltd.
  990.             Headington Hill Hall, Oxford OX3, 0BW, England
  991.    Freq.:   10 issues/year (vol. 1 in 1988)
  992.    Cost/Yr: Free with INNS or JNNS or ENNS membership ($45?),
  993.             Individual $65, Institution $175
  994.    ISSN #:  0893-6080
  995.    Remark:  Official Journal of International Neural Network Society (INNS),
  996.             European Neural Network Society (ENNS) and Japanese Neural
  997.             Network Society (JNNS).
  998.             Contains Original Contributions, Invited Review Articles, Letters
  999.             to Editor, Book Reviews, Editorials, Announcements, Software Surveys.
  1000.  
  1001.    Title:   Neural Computation
  1002.    Publish: MIT Press 
  1003.    Address: MIT Press Journals, 55 Hayward Street Cambridge, 
  1004.             MA 02142-9949, USA, Phone: (617) 253-2889
  1005.    Freq.:   Quarterly (vol. 1 in 1989)
  1006.    Cost/Yr: Individual $45, Institution $90, Students $35; Add $9 Outside USA
  1007.    ISSN #:  0899-7667
  1008.    Remark:  Combination of Reviews (10,000 words), Views (4,000 words)
  1009.             and Letters (2,000 words).  I have found this journal to be of
  1010.             outstanding quality.
  1011.             (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  1012.  
  1013.    Title:   IEEE Transactions on Neural Networks
  1014.    Publish: Institute of Electrical and Electronics Engineers (IEEE)
  1015.    Address: IEEE Service Cemter, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ,
  1016.             08855-1331 USA. Tel: (201) 981-0060
  1017.    Cost/Yr: $10 for Members belonging to participating IEEE societies
  1018.    Freq.:   Quarterly (vol. 1 in March 1990)
  1019.    Remark:  Devoted to the science and technology of neural networks
  1020.             which disclose significant  technical knowledge, exploratory
  1021.             developments and applications of neural networks from biology to
  1022.             software to hardware.  Emphasis is on artificial neural networks.
  1023.             Specific aspects include self organizing systems, neurobiological
  1024.             connections, network dynamics and architecture, speech recognition,
  1025.             electronic and photonic implementation, robotics and controls.
  1026.             Includes Letters concerning new research results.
  1027.             (Note: Remarks are from journal announcement)
  1028.  
  1029.    Title:   International Journal of Neural Systems
  1030.    Publish: World Scientific Publishing
  1031.    Address: USA: World Scientific Publishing Co., 1060 Main Street, River Edge,
  1032.             NJ 07666. Tel: (201) 487 9655; Europe: World Scientific Publishing
  1033.             Co. Ltd., 57 Shelton Street, London WC2H 9HE, England.
  1034.             Tel: (0171) 836 0888; Asia: World Scientific Publishing Co. Pte. Ltd.,
  1035.             1022 Hougang Avenue 1 #05-3520, Singapore 1953, Rep. of Singapore
  1036.             Tel: 382 5663.
  1037.    Freq.:   Quarterly (Vol. 1 in 1990)
  1038.    Cost/Yr: Individual $122, Institution $255 (plus $15-$25 for postage)
  1039.    ISSN #:  0129-0657 (IJNS)
  1040.    Remark:  The International Journal of Neural Systems is a quarterly
  1041.             journal which covers information processing in natural
  1042.             and artificial neural systems. Contributions include research papers,
  1043.             reviews, and Letters to the Editor - communications under 3,000
  1044.             words in length, which are published within six months of receipt.
  1045.             Other contributions are typically published within nine months.
  1046.             The journal presents a fresh undogmatic attitude towards this
  1047.             multidisciplinary field and aims to be a forum for novel ideas and
  1048.             improved understanding of collective and cooperative phenomena with
  1049.             computational capabilities.
  1050.             Papers should be submitted to World Scientific's UK office. Once a
  1051.             paper is accepted for publication, authors are invited to e-mail
  1052.             the LaTeX source file of their paper in order to expedite publication.
  1053.  
  1054.    Title:   International Journal of Neurocomputing
  1055.    Publish: Elsevier Science Publishers, Journal Dept.; PO Box 211;
  1056.             1000 AE Amsterdam, The Netherlands
  1057.    Freq.:   Quarterly (vol. 1 in 1989)
  1058.    Editor:  V.D. Sanchez A.; German Aerospace Research Establishment;
  1059.             Institute for Robotics and System Dynamics, 82230 Wessling, Germany.
  1060.             Current events and software news editor: Dr. F. Murtagh, ESA,
  1061.             Karl-Schwarzschild Strasse 2, D-85748, Garching, Germany,
  1062.             phone +49-89-32006298, fax +49-89-32006480, email fmurtagh@eso.org
  1063.  
  1064.    Title:   Neural Processing Letters
  1065.    Publish: D facto publications
  1066.    Address: 45 rue Masui; B-1210 Brussels, Belgium
  1067.             Phone: (32) 2 245 43 63;  Fax: (32) 2 245 46 94
  1068.    Freq:    6 issues/year (vol. 1 in September 1994)
  1069.    Cost/Yr: BEF 4400 (about $140)
  1070.    ISSN #:  1370-4621
  1071.    Remark:  The aim of the journal is to rapidly publish new ideas, original
  1072.             developments and work in progress.  Neural Processing Letters
  1073.             covers all aspects of the Artificial Neural Networks field.
  1074.             Publication delay is about 3 months.
  1075.             FTP server available: 
  1076.              ftp://ftp.dice.ucl.ac.be/pub/neural-nets/NPL.
  1077.             WWW server available: 
  1078.                http://www.dice.ucl.ac.be/neural-nets/NPL/NPL.html
  1079.  
  1080.    Title:   Neural Network News
  1081.    Publish: AIWeek Inc.
  1082.    Address: Neural Network News, 2555 Cumberland Parkway, Suite 299,
  1083.             Atlanta, GA 30339 USA. Tel: (404) 434-2187
  1084.    Freq.:   Monthly (beginning September 1989)
  1085.    Cost/Yr: USA and Canada $249, Elsewhere $299
  1086.    Remark:  Commercial Newsletter
  1087.  
  1088.    Title:   Network: Computation in Neural Systems
  1089.    Publish: IOP Publishing Ltd
  1090.    Address: Europe: IOP Publishing Ltd, Techno House, Redcliffe Way, Bristol 
  1091.             BS1 6NX, UK; IN USA: American Institute of Physics, Subscriber
  1092.             Services 500 Sunnyside Blvd., Woodbury, NY  11797-2999
  1093.    Freq.:   Quarterly (1st issue 1990)
  1094.    Cost/Yr: USA: $180,  Europe: 110 pounds
  1095.    Remark:  Description: "a forum for integrating theoretical and experimental
  1096.             findings across relevant interdisciplinary boundaries."  Contents:
  1097.             Submitted articles reviewed by two technical referees  paper's 
  1098.             interdisciplinary format and accessability."  Also Viewpoints and 
  1099.             Reviews commissioned by the editors, abstracts (with reviews) of
  1100.             articles published in other journals, and book reviews.
  1101.             Comment: While the price discourages me (my comments are based
  1102.             upon a free sample copy), I think that the journal succeeds
  1103.             very well.  The highest density of interesting articles I
  1104.             have found in any journal. 
  1105.             (Note: Remarks supplied by kehoe@csufres.CSUFresno.EDU)
  1106.  
  1107.    Title:   Connection Science: Journal of Neural Computing, 
  1108.             Artificial Intelligence and Cognitive Research
  1109.    Publish: Carfax Publishing
  1110.    Address: Europe: Carfax Publishing Company, P. O. Box 25, Abingdon, 
  1111.             Oxfordshire  OX14 3UE, UK.  USA: Carafax Publishing Company,
  1112.             85 Ash Street, Hopkinton, MA 01748
  1113.    Freq.:   Quarterly (vol. 1 in 1989)
  1114.    Cost/Yr: Individual $82, Institution $184, Institution (U.K.) 74 pounds
  1115.  
  1116.    Title:   International Journal of Neural Networks
  1117.    Publish: Learned Information
  1118.    Freq.:   Quarterly (vol. 1 in 1989)
  1119.    Cost/Yr: 90 pounds
  1120.    ISSN #:  0954-9889
  1121.    Remark:  The journal contains articles, a conference report (at least the 
  1122.             issue I have), news and a calendar.
  1123.             (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  1124.  
  1125.    Title:   Sixth Generation Systems (formerly Neurocomputers)
  1126.    Publish: Gallifrey Publishing
  1127.    Address: Gallifrey Publishing, PO Box 155, Vicksburg, Michigan, 49097, USA
  1128.             Tel: (616) 649-3772, 649-3592 fax
  1129.    Freq.    Monthly (1st issue January, 1987)
  1130.    ISSN #:  0893-1585
  1131.    Editor:  Derek F. Stubbs
  1132.    Cost/Yr: $79 (USA, Canada), US$95 (elsewhere)
  1133.    Remark:  Runs eight to 16 pages monthly. In 1995 will go to floppy disc-based
  1134.    publishing with databases +, "the equivalent to 50 pages per issue are
  1135.    planned." Often focuses on specific topics: e.g., August, 1994 contains two
  1136.    articles: "Economics, Times Series and the Market," and "Finite Particle
  1137.    Analysis - [part] II."  Stubbs also directs the company Advanced Forecasting
  1138.    Technologies. (Remark by Ed Rosenfeld: ier@aol.com)
  1139.  
  1140.    Title:   JNNS Newsletter (Newsletter of the Japan Neural Network Society)
  1141.    Publish: The Japan Neural Network Society
  1142.    Freq.:   Quarterly (vol. 1 in 1989)
  1143.    Remark:  (IN JAPANESE LANGUAGE) Official Newsletter of the Japan Neural 
  1144.             Network Society(JNNS)
  1145.             (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  1146.  
  1147.    Title:   Neural Networks Today
  1148.    Remark:  I found this title in a bulletin board of october last year.
  1149.             It was a message of Tim Pattison, timpatt@augean.OZ
  1150.             (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  1151.  
  1152.    Title:   Computer Simulations in Brain Science
  1153.  
  1154.    Title:   Internation Journal of Neuroscience
  1155.  
  1156.    Title:   Neural Network Computation 
  1157.    Remark:  Possibly the same as "Neural Computation"
  1158.  
  1159.    Title:   Neural Computing and Applications
  1160.    Freq.:   Quarterly
  1161.    Publish: Springer Verlag
  1162.    Cost/yr: 120 Pounds
  1163.    Remark:  Is the journal of the Neural Computing Applications Forum.
  1164.             Publishes original research and other information
  1165.             in the field of practical applications of neural computing.
  1166.  
  1167.    B. NN Related Journals:
  1168.    +++++++++++++++++++++++
  1169.  
  1170.    Title:   Complex Systems
  1171.    Publish: Complex Systems Publications
  1172.    Address: Complex Systems Publications, Inc., P.O. Box 6149, Champaign,
  1173.             IL 61821-8149, USA
  1174.    Freq.:   6 times per year (1st volume is 1987)
  1175.    ISSN #:  0891-2513
  1176.    Cost/Yr: Individual $75, Institution $225
  1177.    Remark:  Journal COMPLEX SYSTEMS  devotes to rapid publication of research
  1178.             on science, mathematics, and engineering of systems with simple
  1179.             components but complex overall behavior. Send mail to 
  1180.             "jcs@complex.ccsr.uiuc.edu" for additional info.
  1181.             (Remark is from announcement on Net)
  1182.  
  1183.    Title:   Biological Cybernetics (Kybernetik)
  1184.    Publish: Springer Verlag
  1185.    Remark:  Monthly (vol. 1 in 1961)
  1186.  
  1187.    Title:   Various IEEE Transactions and Magazines
  1188.    Publish: IEEE
  1189.    Remark:  Primarily see IEEE Trans. on System, Man and Cybernetics;
  1190.             Various Special Issues: April 1990 IEEE Control Systems
  1191.             Magazine.; May 1989 IEEE Trans. Circuits and Systems.;
  1192.             July 1988 IEEE Trans. Acoust. Speech Signal Process.
  1193.  
  1194.    Title:   The Journal of Experimental and Theoretical Artificial Intelligence
  1195.    Publish: Taylor & Francis, Ltd.
  1196.    Address: London, New York, Philadelphia
  1197.    Freq.:   ? (1st issue Jan 1989)
  1198.    Remark:  For submission information, please contact either of the editors:
  1199.             Eric Dietrich                        Chris Fields
  1200.             PACSS - Department of Philosophy     Box 30001/3CRL
  1201.             SUNY Binghamton                      New Mexico State University
  1202.             Binghamton, NY 13901                 Las Cruces, NM 88003-0001
  1203.             dietrich@bingvaxu.cc.binghamton.edu  cfields@nmsu.edu
  1204.  
  1205.    Title:   The Behavioral and Brain Sciences
  1206.    Publish: Cambridge University Press
  1207.    Remark:  (Expensive as hell, I'm sure.)
  1208.             This is a delightful journal that encourages discussion on a
  1209.             variety of controversial topics.  I have especially enjoyed
  1210.             reading some papers in there by Dana Ballard and Stephen
  1211.             Grossberg (separate papers, not collaborations) a few years
  1212.             back.  They have a really neat concept: they get a paper,
  1213.             then invite a number of noted scientists in the field to
  1214.             praise it or trash it.  They print these commentaries, and
  1215.             give the author(s) a chance to make a rebuttal or
  1216.             concurrence.  Sometimes, as I'm sure you can imagine, things
  1217.             get pretty lively.  I'm reasonably sure they are still at
  1218.             it--I think I saw them make a call for reviewers a few
  1219.             months ago.  Their reviewers are called something like
  1220.             Behavioral and Brain Associates, and I believe they have to
  1221.             be nominated by current associates, and should be fairly
  1222.             well established in the field.  That's probably more than I
  1223.             really know about it but maybe if you post it someone who
  1224.             knows more about it will correct any errors I have made.
  1225.             The main thing is that I liked the articles I read. (Note:
  1226.             remarks by Don Wunsch )
  1227.                      
  1228.    Title:   International Journal of Applied Intelligence
  1229.    Publish: Kluwer Academic Publishers
  1230.    Remark:  first issue in 1990(?)
  1231.  
  1232.    Title:   Bulletin of Mathematica Biology
  1233.  
  1234.    Title:   Intelligence
  1235.  
  1236.    Title:   Journal of Mathematical Biology
  1237.  
  1238.    Title:   Journal of Complex System
  1239.  
  1240.    Title:   AI Expert
  1241.    Publish: Miller Freeman Publishing Co., for subscription call ++415-267-7672.
  1242.    Remark:  Regularly includes ANN related articles, product
  1243.             announcements, and application reports. Listings of ANN
  1244.             programs are available on AI Expert affiliated BBS's
  1245.  
  1246.    Title:   International Journal of Modern Physics C
  1247.    Publish: USA: World Scientific Publishing Co., 1060 Main Street, River Edge,
  1248.             NJ 07666. Tel: (201) 487 9655; Europe: World Scientific Publishing
  1249.             Co. Ltd., 57 Shelton Street, London WC2H 9HE, England.
  1250.             Tel: (0171) 836 0888; Asia: World Scientific Publishing Co. Pte. Ltd.,
  1251.             1022 Hougang Avenue 1 #05-3520, Singapore 1953, Rep. of Singapore
  1252.             Tel: 382 5663.
  1253.    Freq:    bi-monthly
  1254.    Eds:     H. Herrmann, R. Brower, G.C. Fox and S Nose
  1255.  
  1256.    Title:   Machine Learning
  1257.    Publish: Kluwer Academic Publishers
  1258.    Address: Kluwer Academic Publishers
  1259.             P.O. Box 358
  1260.             Accord Station
  1261.             Hingham, MA 02018-0358 USA
  1262.    Freq.:   Monthly (8 issues per year; increasing to 12 in 1993)
  1263.    Cost/Yr: Individual $140 (1992); Member of AAAI or CSCSI $88
  1264.    Remark:  Description: Machine Learning is an international forum for 
  1265.             research on computational approaches to learning.  The journal
  1266.             publishes articles reporting substantive research results on a
  1267.             wide range of learning methods applied to a variety of task
  1268.             domains.  The ideal paper will make a theoretical contribution
  1269.             supported by a computer implementation.
  1270.             The journal has published many key papers in learning theory,
  1271.             reinforcement learning, and decision tree methods.  Recently
  1272.             it has published a special issue on connectionist approaches
  1273.             to symbolic reasoning.  The journal regularly publishes
  1274.             issues devoted to genetic algorithms as well.
  1275.  
  1276.    Title:   INTELLIGENCE - The Future of Computing
  1277.    Published by: Intelligence
  1278.    Address: INTELLIGENCE, P.O. Box 20008, New York, NY 10025-1510, USA,
  1279.    212-222-1123 voice & fax; email: ier@aol.com, CIS: 72400,1013
  1280.    Freq.    Monthly plus four special reports each year (1st issue: May, 1984)
  1281.    ISSN #:  1042-4296
  1282.    Editor:  Edward Rosenfeld 
  1283.    Cost/Yr: $395 (USA), US$450 (elsewhere)
  1284.    Remark:  Has absorbed several other newsletters, like Synapse/Connection
  1285.             and Critical Technology Trends (formerly AI Trends).
  1286.             Covers NN, genetic algorithms, fuzzy systems, wavelets, chaos
  1287.             and other advanced computing approaches, as well as molecular
  1288.             computing and nanotechnology.
  1289.  
  1290.    Title:   Journal of Physics A: Mathematical and General
  1291.    Publish: Inst. of Physics, Bristol
  1292.    Freq:    24 issues per year.
  1293.    Remark:  Statistical mechanics aspects of neural networks 
  1294.             (mostly Hopfield models).
  1295.  
  1296.    Title:   Physical Review A: Atomic, Molecular and Optical Physics
  1297.    Publish: The American Physical Society (Am. Inst. of Physics)
  1298.    Freq:    Monthly
  1299.    Remark:  Statistical mechanics of neural networks.
  1300.  
  1301.    Title:   Information Sciences
  1302.    Publish: North Holland (Elsevier Science)
  1303.    Freq.:   Monthly
  1304.    ISSN:    0020-0255
  1305.    Editor:  Paul P. Wang; Department of Electrical Engineering; Duke University;
  1306.             Durham, NC 27706, USA
  1307.  
  1308.    C. Journals loosely related to NNs:
  1309.    +++++++++++++++++++++++++++++++++++
  1310.  
  1311.    Title:   JOURNAL OF COMPLEXITY
  1312.    Remark:  (Must rank alongside Wolfram's Complex Systems)
  1313.  
  1314.    Title:   IEEE ASSP Magazine
  1315.    Remark:  (April 1987 had the Lippmann intro. which everyone likes to cite)
  1316.  
  1317.    Title:   ARTIFICIAL INTELLIGENCE
  1318.    Remark:  (Vol 40, September 1989 had the survey paper by Hinton)
  1319.  
  1320.    Title:   COGNITIVE SCIENCE
  1321.    Remark:  (the Boltzmann machine paper by Ackley et al appeared here
  1322.             in Vol 9, 1983)
  1323.  
  1324.    Title:   COGNITION
  1325.    Remark:  (Vol 28, March 1988 contained the Fodor and Pylyshyn
  1326.             critique of connectionism)
  1327.  
  1328.    Title:   COGNITIVE PSYCHOLOGY
  1329.    Remark:  (no comment!)
  1330.  
  1331.    Title:   JOURNAL OF MATHEMATICAL PSYCHOLOGY
  1332.    Remark:  (several good book reviews)
  1333.  
  1334.    ------------------------------------------------------------------------
  1335.  
  1336. 14. A: The most important conferences concerned
  1337. ===============================================
  1338.    with Neural Networks?
  1339.    =====================
  1340.  
  1341.    [to be added: has taken place how often yet; most emphasized topics;
  1342.     where to get proceedings/calls-for-papers etc. ]
  1343.  
  1344.    A. Dedicated Neural Network Conferences:
  1345.    ++++++++++++++++++++++++++++++++++++++++
  1346.  
  1347.     1. Neural Information Processing Systems (NIPS) Annually
  1348.       since 1988 in Denver, Colorado; late November or early
  1349.       December. Interdisciplinary conference with computer
  1350.       science, physics, engineering, biology, medicine, cognitive
  1351.       science topics. Covers all aspects of NNs. Proceedings
  1352.       appear several months after the conference as a book from
  1353.       Morgan Kaufman, San Mateo, CA. 
  1354.     2. International Joint Conference on Neural Networks
  1355.       (IJCNN) formerly co-sponsored by INNS and IEEE, no
  1356.       longer held. 
  1357.     3. Annual Conference on Neural Networks (ACNN) 
  1358.     4. International Conference on Artificial Neural Networks
  1359.       (ICANN) Annually in Europe. First was 1991. Major
  1360.       conference of European Neur. Netw. Soc. (ENNS) 
  1361.     5. WCNN. Sponsored by INNS. 
  1362.     6. European Symposium on Artificial Neural Networks
  1363.       (ESANN). Anually since 1993 in Brussels, Belgium; late
  1364.       April; conference on the fundamental aspects of artificial
  1365.       neural networks: theory, mathematics, biology, relations
  1366.       between neural networks and other disciplines, statistics,
  1367.       learning, algorithms, models and architectures,
  1368.       self-organization, signal processing, approximation of
  1369.       functions, evolutive learning, etc. Contact: Michel
  1370.       Verleysen, D facto conference services, 45 rue Masui,
  1371.       B-1210 Brussels, Belgium, phone: +32 2 245 43 63, fax: +
  1372.       32 2 245 46 94, e-mail: esann@dice.ucl.ac.be 
  1373.     7. Artificial Neural Networks in Engineering (ANNIE)
  1374.       Anually since 1991 in St. Louis, Missouri; held in
  1375.       November. (Topics: NN architectures, pattern recognition,
  1376.       neuro-control, neuro-engineering systems. Contact:
  1377.       ANNIE; Engineering Management Department; 223
  1378.       Engineering Management Building; University of
  1379.       Missouri-Rolla; Rolla, MO 65401; FAX: (314) 341-6567) 
  1380.     8. many many more.... 
  1381.  
  1382.    B. Other Conferences
  1383.    ++++++++++++++++++++
  1384.  
  1385.     1. International Joint Conference on Artificial Intelligence
  1386.       (IJCAI) 
  1387.     2. Intern. Conf. on Acustics, Speech and Signal Processing
  1388.       (ICASSP) 
  1389.     3. Intern. Conf. on Pattern Recognition. Held every other
  1390.       year. Has a connectionist subconference. Information:
  1391.       General Chair Walter G. Kropatsch
  1392.       <krw@prip.tuwien.ac.at> 
  1393.     4. Annual Conference of the Cognitive Science Society 
  1394.     5. [Vision Conferences?] 
  1395.  
  1396.    C. Pointers to Conferences
  1397.    ++++++++++++++++++++++++++
  1398.  
  1399.     1. The journal "Neural Networks" has a list of conferences,
  1400.       workshops and meetings in each issue. This is quite
  1401.       interdisciplinary. 
  1402.     2. There is a regular posting on comp.ai.neural-nets from
  1403.       Paultje Bakker: "Upcoming Neural Network Conferences",
  1404.       which lists names, dates, locations, contacts, and deadlines.
  1405.       It is also available for anonymous ftp from ftp.cs.uq.oz.au
  1406.       as /pub/pdp/conferences 
  1407.  
  1408.    ------------------------------------------------------------------------
  1409.  
  1410. 15. A: Neural Network Associations?
  1411. ===================================
  1412.  
  1413.     1. International Neural Network Society (INNS).
  1414.     +++++++++++++++++++++++++++++++++++++++++++++++
  1415.  
  1416.       INNS membership includes subscription to "Neural
  1417.       Networks", the official journal of the society. Membership
  1418.       is $55 for non-students and $45 for students per year.
  1419.       Address: INNS Membership, P.O. Box 491166, Ft.
  1420.       Washington, MD 20749. 
  1421.  
  1422.     2. International Student Society for Neural Networks
  1423.     ++++++++++++++++++++++++++++++++++++++++++++++++++++
  1424.       (ISSNNets).
  1425.       +++++++++++
  1426.  
  1427.       Membership is $5 per year. Address: ISSNNet, Inc., P.O.
  1428.       Box 15661, Boston, MA 02215 USA 
  1429.  
  1430.     3. Women In Neural Network Research and technology
  1431.     ++++++++++++++++++++++++++++++++++++++++++++++++++
  1432.       (WINNERS).
  1433.       ++++++++++
  1434.  
  1435.       Address: WINNERS, c/o Judith Dayhoff, 11141 Georgia
  1436.       Ave., Suite 206, Wheaton, MD 20902. Phone:
  1437.       301-933-9000. 
  1438.  
  1439.     4. European Neural Network Society (ENNS)
  1440.     +++++++++++++++++++++++++++++++++++++++++
  1441.  
  1442.       ENNS membership includes subscription to "Neural
  1443.       Networks", the official journal of the society. Membership
  1444.       is currently (1994) 50 UK pounds (35 UK pounds for
  1445.       students) per year. Address: ENNS Membership, Centre for
  1446.       Neural Networks, King's College London, Strand, London
  1447.       WC2R 2LS, United Kingdom. 
  1448.  
  1449.     5. Japanese Neural Network Society (JNNS)
  1450.     +++++++++++++++++++++++++++++++++++++++++
  1451.  
  1452.       Address: Japanese Neural Network Society; Department of
  1453.       Engineering, Tamagawa University; 6-1-1, Tamagawa
  1454.       Gakuen, Machida City, Tokyo; 194 JAPAN; Phone: +81
  1455.       427 28 3457, Fax: +81 427 28 3597 
  1456.  
  1457.     6. Association des Connexionnistes en THese (ACTH)
  1458.     ++++++++++++++++++++++++++++++++++++++++++++++++++
  1459.  
  1460.       (the French Student Association for Neural Networks);
  1461.       Membership is 100 FF per year; Activities : newsletter,
  1462.       conference (every year), list of members, electronic forum;
  1463.       Journal 'Valgo' (ISSN 1243-4825); Contact : acth@loria.fr
  1464.  
  1465.     7. Neurosciences et Sciences de l'Ingenieur (NSI)
  1466.     +++++++++++++++++++++++++++++++++++++++++++++++++
  1467.  
  1468.       Biology & Computer Science Activity : conference (every
  1469.       year) Address : NSI - TIRF / INPG 46 avenue Felix
  1470.       Viallet 38031 Grenoble Cedex FRANCE 
  1471.  
  1472.    ------------------------------------------------------------------------
  1473.  
  1474. 16. A: Other sources of information about NNs?
  1475. ==============================================
  1476.  
  1477.     1. Neuron Digest
  1478.     ++++++++++++++++
  1479.  
  1480.       Internet Mailing List. From the welcome blurb:
  1481.       "Neuron-Digest is a list (in digest form) dealing with all
  1482.       aspects of neural networks (and any type of network or
  1483.       neuromorphic system)" To subscribe, send email to
  1484.       neuron-request@cattell.psych.upenn.edu
  1485.       comp.ai.neural-net readers also find the messages in that
  1486.       newsgroup in the form of digests. 
  1487.  
  1488.     2. Usenet groups comp.ai.neural-nets (Oha!) and
  1489.     +++++++++++++++++++++++++++++++++++++++++++++++
  1490.       comp.theory.self-org-sys.
  1491.       +++++++++++++++++++++++++
  1492.  
  1493.       There is a periodic posting on comp.ai.neural-nets sent by
  1494.       srctran@world.std.com (Gregory Aharonian) about Neural
  1495.       Network patents. 
  1496.  
  1497.     3. Central Neural System Electronic Bulletin Board
  1498.     ++++++++++++++++++++++++++++++++++++++++++++++++++
  1499.  
  1500.       Modem: 409-737-5222; Sysop: Wesley R. Elsberry; 4160
  1501.       Pirates' Beach, Galveston, TX 77554;
  1502.       welsberr@orca.tamu.edu. Many MS-DOS PD and
  1503.       shareware simulations, source code, benchmarks,
  1504.       demonstration packages, information files; some Unix,
  1505.       Macintosh, Amiga related files. Also available are files on
  1506.       AI, AI Expert listings 1986-1991, fuzzy logic, genetic
  1507.       algorithms, artificial life, evolutionary biology, and many
  1508.       Project Gutenberg and Wiretap etexts. No user fees have
  1509.       ever been charged. Home of the NEURAL_NET Echo,
  1510.       available thrugh FidoNet, RBBS-Net, and other EchoMail
  1511.       compatible bulletin board systems. 
  1512.  
  1513.     4. Neural ftp archive site ftp.funet.fi
  1514.     +++++++++++++++++++++++++++++++++++++++
  1515.  
  1516.       Is administrating a large collection of neural network
  1517.       papers and software at the Finnish University Network file
  1518.       archive site ftp.funet.fi in directory /pub/sci/neural Contains
  1519.       all the public domain software and papers that they have
  1520.       been able to find. All of these files have been transferred
  1521.       from FTP sites in U.S. and are mirrored about every 3
  1522.       months at fastest. Contact: neural-adm@ftp.funet.fi 
  1523.  
  1524.     5. USENET newsgroup comp.org.issnnet
  1525.     ++++++++++++++++++++++++++++++++++++
  1526.  
  1527.       Forum for discussion of academic/student-related issues in
  1528.       NNs, as well as information on ISSNNet (see answer 12)
  1529.       and its activities. 
  1530.  
  1531.     6. AI CD-ROM
  1532.     ++++++++++++
  1533.  
  1534.       Network Cybernetics Corporation produces the "AI
  1535.       CD-ROM". It is an ISO-9660 format CD-ROM and
  1536.       contains a large assortment of software related to artificial
  1537.       intelligence, artificial life, virtual reality, and other topics.
  1538.       Programs for OS/2, MS-DOS, Macintosh, UNIX, and
  1539.       other operating systems are included. Research papers,
  1540.       tutorials, and other text files are included in ASCII, RTF,
  1541.       and other universal formats. The files have been collected
  1542.       from AI bulletin boards, Internet archive sites, University
  1543.       computer deptartments, and other government and civilian
  1544.       AI research organizations. Network Cybernetics
  1545.       Corporation intends to release annual revisions to the AI
  1546.       CD-ROM to keep it up to date with current developments
  1547.       in the field. The AI CD-ROM includes collections of files
  1548.       that address many specific AI/AL topics including Neural
  1549.       Networks (Source code and executables for many different
  1550.       platforms including Unix, DOS, and Macintosh. ANN
  1551.       development tools, example networks, sample data,
  1552.       tutorials. A complete collection of Neural Digest is included
  1553.       as well.) The AI CD-ROM may be ordered directly by
  1554.       check, money order, bank draft, or credit card from:
  1555.       Network Cybernetics Corporation; 4201 Wingren Road
  1556.       Suite 202; Irving, TX 75062-2763; Tel 214/650-2002; Fax
  1557.       214/650-1929; The cost is $129 per disc + shipping ($5/disc
  1558.       domestic or $10/disc foreign) (See the comp.ai FAQ for
  1559.       further details) 
  1560.  
  1561.     7. NN events server
  1562.     +++++++++++++++++++
  1563.  
  1564.       There is a WWW page and an FTP Server for
  1565.       Announcements of Conferences, Workshops and Other
  1566.       Events on Neural Networks at IDIAP in Switzerland.
  1567.       WWW-Server: 
  1568.       http://www.idiap.ch/html/idiap-networks.html,
  1569.       FTP-Server: ftp://ftp.idiap.ch/html/NN-events/, 
  1570.  
  1571.     8. World Wide Web
  1572.     +++++++++++++++++
  1573.  
  1574.       In World-Wide-Web (WWW, for example via the xmosaic
  1575.       program) you can read neural network information for
  1576.       instance by opening one of the following uniform resource
  1577.       locators (URLs): http://www.neuronet.ph.kcl.ac.uk
  1578.       (NEuroNet, King's College, London), 
  1579.       http://www.eeb.ele.tue.nl (Eindhoven, Netherlands), 
  1580.       http://www.emsl.pnl.gov:2080/docs/cie/neural/ (Richland,
  1581.       Washington), 
  1582.       http://www.cosy.sbg.ac.at/~rschwaig/rschwaig/projects.html
  1583.       (Salzburg, Austria), 
  1584.       http://http2.sils.umich.edu/Public/nirg/nirg1.html
  1585.       (Michigan). http://rtm.science.unitn.it/ Reactive Memory
  1586.       Search (Tabu Search) page (Trento, Italy). Many others
  1587.       are available too; WWW is changing all the time. 
  1588.  
  1589.     9. Neurosciences Internet Resource Guide
  1590.     ++++++++++++++++++++++++++++++++++++++++
  1591.  
  1592.       This document aims to be a guide to existing, free,
  1593.       Internet-accessible resources helpful to neuroscientists of
  1594.       all stripes. An ASCII text version (86K) is available in the
  1595.       Clearinghouse of Subject-Oriented Internet Resource
  1596.       Guides as follows:
  1597.  
  1598.       anonymous FTP, Gopher, WWW Hypertext 
  1599.  
  1600.     10. INTCON mailing list
  1601.     +++++++++++++++++++++++
  1602.  
  1603.       INTCON (Intelligent Control) is a moderated mailing list
  1604.       set up to provide a forum for communication and exchange
  1605.       of ideas among researchers in neuro-control, fuzzy logic
  1606.       control, reinforcement learning and other related subjects
  1607.       grouped under the topic of intelligent control. Send your
  1608.       subscribe requests to 
  1609.       intcon-request@phoenix.ee.unsw.edu.au 
  1610.  
  1611.    ------------------------------------------------------------------------
  1612.  
  1613. 17. A: Freely available software packages for NN
  1614. ================================================
  1615.    simulation?
  1616.    ===========
  1617.  
  1618.     1. Rochester Connectionist Simulator
  1619.     ++++++++++++++++++++++++++++++++++++
  1620.  
  1621.       A quite versatile simulator program for arbitrary types of
  1622.       neural nets. Comes with a backprop package and a
  1623.       X11/Sunview interface. Available via anonymous FTP
  1624.       from cs.rochester.edu in directory pub/packages/simulator
  1625.       as the files README (8 KB), rcs_v4.2.tar.Z (2.9 MB), 
  1626.  
  1627.     2. UCLA-SFINX
  1628.     +++++++++++++
  1629.  
  1630.       ftp retina.cs.ucla.edu [131.179.16.6]; Login name: sfinxftp;
  1631.       Password: joshua; directory: pub; files : README;
  1632.       sfinx_v2.0.tar.Z; Email info request :
  1633.       sfinx@retina.cs.ucla.edu 
  1634.  
  1635.     3. NeurDS
  1636.     +++++++++
  1637.  
  1638.       simulator for DEC systems supporting VT100 terminal.
  1639.       available for anonymous ftp from gatekeeper.dec.com
  1640.       [16.1.0.2] in directory: pub/DEC as the file 
  1641.       NeurDS031.tar.Z (111 Kb) 
  1642.  
  1643.     4. PlaNet5.7 (formerly known as SunNet)
  1644.     +++++++++++++++++++++++++++++++++++++++
  1645.  
  1646.       A popular connectionist simulator with versions to run
  1647.       under X Windows, and non-graphics terminals created by
  1648.       Yoshiro Miyata (Chukyo Univ., Japan). 60-page User's
  1649.       Guide in Postscript. Send any questions to
  1650.       miyata@sccs.chukyo-u.ac.jp Available for anonymous ftp
  1651.       from ftp.ira.uka.de as /pub/neuron/PlaNet5.7.tar.Z (800 kb)
  1652.       or from boulder.colorado.edu [128.138.240.1] as 
  1653.       /pub/generic-sources/PlaNet5.7.tar.Z 
  1654.  
  1655.     5. GENESIS
  1656.     ++++++++++
  1657.  
  1658.       GENESIS 1.4.2 (GEneral NEural SImulation System) is a
  1659.       general purpose simulation platform which was developed
  1660.       to support the simulation of neural systems ranging from
  1661.       complex models of single neurons to simulations of large
  1662.       networks made up of more abstract neuronal components.
  1663.       Most current GENESIS applications involve realistic
  1664.       simulations of biological neural systems. Although the
  1665.       software can also model more abstract networks, other
  1666.       simulators are more suitable for backpropagation and
  1667.       similar connectionist modeling. Available for ftp with the
  1668.       following procedure: Use 'telnet' to genesis.bbb.caltech.edu
  1669.       and login as the user "genesis" (no password). If you
  1670.       answer all the questions, an 'ftp' account will
  1671.       automatically be created for you. You can then 'ftp' back to
  1672.       the machine and download the software (about 3 MB).
  1673.       Contact: genesis@cns.caltech.edu. Further information via
  1674.       WWW at http://www.bbb.caltech.edu/GENESIS/. 
  1675.  
  1676.     6. Mactivation
  1677.     ++++++++++++++
  1678.  
  1679.       A neural network simulator for the Apple Macintosh.
  1680.       Available for ftp from ftp.cs.colorado.edu [128.138.243.151]
  1681.       as /pub/cs/misc/Mactivation-3.3.sea.hqx 
  1682.  
  1683.     7. Cascade Correlation Simulator
  1684.     ++++++++++++++++++++++++++++++++
  1685.  
  1686.       A simulator for Scott Fahlman's Cascade Correlation
  1687.       algorithm. Available for ftp from ftp.cs.cmu.edu
  1688.       [128.2.206.173] in directory /afs/cs/project/connect/code as
  1689.       the file cascor-v1.0.4.shar (218 KB) There is also a version
  1690.       of recurrent cascade correlation in the same directory in
  1691.       file rcc1.c (108 KB). 
  1692.  
  1693.     8. Quickprop
  1694.     ++++++++++++
  1695.  
  1696.       A variation of the back-propagation algorithm developed
  1697.       by Scott Fahlman. A simulator is available in the same
  1698.       directory as the cascade correlation simulator above in file 
  1699.       nevprop1.16.shar (137 KB) (see also the description of
  1700.       NEVPROP below) 
  1701.  
  1702.     9. DartNet
  1703.     ++++++++++
  1704.  
  1705.       DartNet is a Macintosh-based backpropagation simulator,
  1706.       developed at Dartmouth by Jamshed Bharucha and Sean
  1707.       Nolan as a pedagogical tool. It makes use of the Mac's
  1708.       graphical interface, and provides a number of tools for
  1709.       building, editing, training, testing and examining networks.
  1710.       This program is available by anonymous ftp from
  1711.       dartvax.dartmouth.edu [129.170.16.4] as 
  1712.       /pub/mac/dartnet.sit.hqx (124 KB). 
  1713.  
  1714.     10. SNNS
  1715.     ++++++++
  1716.  
  1717.       "Stuttgart Neural Network Simulator" from the University
  1718.       of Stuttgart, Germany. A luxurious simulator for many
  1719.       types of nets; with X11 interface: Graphical 2D and 3D
  1720.       topology editor/visualizer, training visualisation, multiple
  1721.       pattern set handling etc. Currently supports
  1722.       backpropagation (vanilla, online, with momentum term
  1723.       and flat spot elimination, batch, time delay),
  1724.       counterpropagation, quickprop, backpercolation 1,
  1725.       generalized radial basis functions (RBF), RProp, ART1,
  1726.       ART2, ARTMAP, Cascade Correlation, Recurrent
  1727.       Cascade Correlation, Dynamic LVQ, Backpropagation
  1728.       through time (for recurrent networks), batch
  1729.       backpropagation through time (for recurrent networks),
  1730.       Quickpropagation through time (for recurrent networks),
  1731.       Hopfield networks, Jordan and Elman networks,
  1732.       autoassociative memory, self-organizing maps, time-delay
  1733.       networks (TDNN), and is user-extendable (user-defined
  1734.       activation functions, output functions, site functions,
  1735.       learning procedures). Works on SunOS, Solaris, IRIX,
  1736.       Ultrix, AIX, HP/UX, and Linux. Available for ftp from
  1737.       ftp.informatik.uni-stuttgart.de [129.69.211.2] in directory
  1738.       /pub/SNNS as SNNSv3.2.tar.Z (2 MB, Source code) and 
  1739.       SNNSv3.2.Manual.ps.Z (1.4 MB, Documentation). There
  1740.       are also various other files in this directory (e.g. the source
  1741.       version of the manual, a Sun Sparc executable, older
  1742.       versions of the software, some papers, and the software in
  1743.       several smaller parts). It may be best to first have a look at
  1744.       the file SNNSv3.2.Readme (10 kb). This file contains a
  1745.       somewhat more elaborate short description of the
  1746.       simulator. 
  1747.  
  1748.     11. Aspirin/MIGRAINES
  1749.     +++++++++++++++++++++
  1750.  
  1751.       Aspirin/MIGRAINES 6.0 consists of a code generator that
  1752.       builds neural network simulations by reading a network
  1753.       description (written in a language called "Aspirin") and
  1754.       generates a C simulation. An interface (called
  1755.       "MIGRAINES") is provided to export data from the neural
  1756.       network to visualization tools. The system has been ported
  1757.       to a large number of platforms. The goal of Aspirin is to
  1758.       provide a common extendible front-end language and
  1759.       parser for different network paradigms. The MIGRAINES
  1760.       interface is a terminal based interface that allows you to
  1761.       open Unix pipes to data in the neural network. Users can
  1762.       display the data using either public or commercial
  1763.       graphics/analysis tools. Example filters are included that
  1764.       convert data exported through MIGRAINES to formats
  1765.       readable by Gnuplot 3.0, Matlab, Mathematica, and xgobi.
  1766.       The software is available from two FTP sites: from CMU's
  1767.       simulator collection on pt.cs.cmu.edu [128.2.254.155] in 
  1768.       /afs/cs/project/connect/code/am6.tar.Z and from UCLA's
  1769.       cognitive science machine ftp.cognet.ucla.edu [128.97.50.19]
  1770.       in /pub/alexis/am6.tar.Z (2 MB). 
  1771.  
  1772.     12. Adaptive Logic Network kit
  1773.     ++++++++++++++++++++++++++++++
  1774.  
  1775.       This package differs from the traditional nets in that it uses
  1776.       logic functions rather than floating point; for many tasks,
  1777.       ALN's can show many orders of magnitude gain in
  1778.       training and performance speed. Anonymous ftp from
  1779.       menaik.cs.ualberta.ca [129.128.4.241] in directory
  1780.       /pub/atree. See the files README (7 KB), atree2.tar.Z
  1781.       (145 kb, Unix source code and examples), atree2.ps.Z (76
  1782.       kb, documentation), a27exe.exe (412 kb, MS-Windows 3.x
  1783.       executable), atre27.exe (572 kb, MS-Windows 3.x source
  1784.       code). 
  1785.  
  1786.     13. NeuralShell
  1787.     +++++++++++++++
  1788.  
  1789.       Formerly available from FTP site
  1790.       quanta.eng.ohio-state.edu [128.146.35.1] as 
  1791.       /pub/NeuralShell/NeuralShell.tar". Currently (April 94)
  1792.       not available and undergoing a major reconstruction. Not
  1793.       to be confused with NeuroShell by Ward System Group
  1794.       (see below under commercial software). 
  1795.  
  1796.     14. PDP
  1797.     +++++++
  1798.  
  1799.       The PDP simulator package is available via anonymous
  1800.       FTP at nic.funet.fi [128.214.6.100] as 
  1801.       /pub/sci/neural/sims/pdp.tar.Z (202 kb). The simulator is
  1802.       also available with the book "Explorations in Parallel
  1803.       Distributed Processing: A Handbook of Models, Programs,
  1804.       and Exercises" by McClelland and Rumelhart. MIT Press,
  1805.       1988. Comment: "This book is often referred to as PDP vol
  1806.       III which is a very misleading practice! The book comes
  1807.       with software on an IBM disk but includes a makefile for
  1808.       compiling on UNIX systems. The version of PDP available
  1809.       at ftp.funet.fi seems identical to the one with the book
  1810.       except for a bug in bp.c which occurs when you try to run a
  1811.       script of PDP commands using the DO command. This can
  1812.       be found and fixed easily." 
  1813.  
  1814.     15. Xerion
  1815.     ++++++++++
  1816.  
  1817.       Xerion runs on SGI and Sun machines and uses X
  1818.       Windows for graphics. The software contains modules that
  1819.       implement Back Propagation, Recurrent Back Propagation,
  1820.       Boltzmann Machine, Mean Field Theory, Free Energy
  1821.       Manipulation, Hard and Soft Competitive Learning, and
  1822.       Kohonen Networks. Sample networks built for each of the
  1823.       modules are also included. Contact: xerion@ai.toronto.edu.
  1824.       Xerion is available via anonymous ftp from
  1825.       ftp.cs.toronto.edu [128.100.1.105] in directory /pub/xerion as
  1826.       xerion-3.1.ps.Z (153 kB) and xerion-3.1.tar.Z (1.3 MB)
  1827.       plus several concrete simulators built with xerion (about 40
  1828.       kB each). 
  1829.  
  1830.     16. Neocognitron simulator
  1831.     ++++++++++++++++++++++++++
  1832.  
  1833.       The simulator is written in C and comes with a list of
  1834.       references which are necessary to read to understand the
  1835.       specifics of the implementation. The unsupervised version
  1836.       is coded without (!) C-cell inhibition. Available for
  1837.       anonymous ftp from unix.hensa.ac.uk [129.12.21.7] in 
  1838.       /pub/neocognitron.tar.Z (130 kB). 
  1839.  
  1840.     17. Multi-Module Neural Computing Environment
  1841.     +++++++++++++++++++++++++++++++++++++++++++++
  1842.       (MUME)
  1843.       ++++++
  1844.  
  1845.       MUME is a simulation environment for multi-modules
  1846.       neural computing. It provides an object oriented facility for
  1847.       the simulation and training of multiple nets with various
  1848.       architectures and learning algorithms. MUME includes a
  1849.       library of network architectures including feedforward,
  1850.       simple recurrent, and continuously running recurrent
  1851.       neural networks. Each architecture is supported by a
  1852.       variety of learning algorithms. MUME can be used for
  1853.       large scale neural network simulations as it provides
  1854.       support for learning in multi-net environments. It also
  1855.       provide pre- and post-processing facilities. The modules
  1856.       are provided in a library. Several "front-ends" or clients
  1857.       are also available. X-Window support by
  1858.       editor/visualization tool Xmume. MUME can be used to
  1859.       include non-neural computing modules (decision trees, ...)
  1860.       in applications. MUME is available anonymous ftp on
  1861.       mickey.sedal.su.oz.au [129.78.24.170] after signing and
  1862.       sending a licence: /pub/license.ps (67 kb). Contact: Marwan
  1863.       Jabri, SEDAL, Sydney University Electrical Engineering,
  1864.       NSW 2006 Australia, marwan@sedal.su.oz.au 
  1865.  
  1866.     18. LVQ_PAK, SOM_PAK
  1867.     ++++++++++++++++++++
  1868.  
  1869.       These are packages for Learning Vector Quantization and
  1870.       Self-Organizing Maps, respectively. They have been built
  1871.       by the LVQ/SOM Programming Team of the Helsinki
  1872.       University of Technology, Laboratory of Computer and
  1873.       Information Science, Rakentajanaukio 2 C, SF-02150
  1874.       Espoo, FINLAND There are versions for Unix and
  1875.       MS-DOS available from cochlea.hut.fi [130.233.168.48] as 
  1876.       /pub/lvq_pak/lvq_pak-2.1.tar.Z (340 kB, Unix sources), 
  1877.       /pub/lvq_pak/lvq_p2r1.exe (310 kB, MS-DOS self-extract
  1878.       archive), /pub/som_pak/som_pak-1.2.tar.Z (251 kB, Unix
  1879.       sources), /pub/som_pak/som_p1r2.exe (215 kB, MS-DOS
  1880.       self-extract archive). (further programs to be used with
  1881.       SOM_PAK and LVQ_PAK can be found in /pub/utils). 
  1882.  
  1883.     19. SESAME
  1884.     ++++++++++
  1885.  
  1886.       ("Software Environment for the Simulation of Adaptive
  1887.       Modular Systems") SESAME is a prototypical software
  1888.       implementation which facilitates 
  1889.        o Object-oriented building blocks approach. 
  1890.        o Contains a large set of C++ classes useful for neural
  1891.          nets, neurocontrol and pattern recognition. No C++
  1892.          classes can be used as stand alone, though! 
  1893.        o C++ classes include CartPole, nondynamic
  1894.          two-robot arms, Lunar Lander, Backpropagation,
  1895.          Feature Maps, Radial Basis Functions,
  1896.          TimeWindows, Fuzzy Set Coding, Potential Fields,
  1897.          Pandemonium, and diverse utility building blocks. 
  1898.        o A kernel which is the framework for the C++
  1899.          classes and allows run-time manipulation,
  1900.          construction, and integration of arbitrary complex
  1901.          and hybrid experiments. 
  1902.        o Currently no graphic interface for construction, only
  1903.          for visualization. 
  1904.        o Platform is SUN4, XWindows 
  1905.       Unfortunately no reasonable good introduction has been
  1906.       written until now. We hope to have something soon. For
  1907.       now we provide papers (eg. NIPS-92), a reference manual
  1908.       (>220 pages), source code (ca. 35.000 lines of code), and a
  1909.       SUN4-executable by ftp only. Sesame and its description is
  1910.       available in various files for anonymous ftp on ftp
  1911.       ftp.gmd.de in the directories /gmd/as/sesame and 
  1912.       /gmd/as/paper. Questions to sesame-request@gmd.de; there
  1913.       is only very limited support available. 
  1914.  
  1915.     20. Nevada Backpropagation (NevProp)
  1916.     ++++++++++++++++++++++++++++++++++++
  1917.  
  1918.       NevProp is a free, easy-to-use feedforward
  1919.       backpropagation (multilayer perceptron) program. It uses
  1920.       an interactive character-based interface, and is distributed
  1921.       as C source code that should compile and run on most
  1922.       platforms. (Precompiled executables are available for
  1923.       Macintosh and DOS.) The original version was Quickprop
  1924.       1.0 by Scott Fahlman, as translated from Common Lisp by
  1925.       Terry Regier. We added early-stopped training based on a
  1926.       held-out subset of data, c index (ROC curve area)
  1927.       calculation, the ability to force gradient descent (per-epoch
  1928.       or per-pattern), and additional options. FEATURES
  1929.       (NevProp version 1.16): UNLIMITED (except by machine
  1930.       memory) number of input PATTERNS; UNLIMITED
  1931.       number of input, hidden, and output UNITS; Arbitrary
  1932.       CONNECTIONS among the various layers' units;
  1933.       Clock-time or user-specified RANDOM SEED for initial
  1934.       random weights; Choice of regular GRADIENT
  1935.       DESCENT or QUICKPROP; Choice of PER-EPOCH or
  1936.       PER-PATTERN (stochastic) weight updating;
  1937.       GENERALIZATION to a test dataset;
  1938.       AUTOMATICALLY STOPPED TRAINING based on
  1939.       generalization; RETENTION of best-generalizing weights
  1940.       and predictions; Simple but useful GRAPHIC display to
  1941.       show smoothness of generalization; SAVING of results to
  1942.       a file while working interactively; SAVING of weights file
  1943.       and reloading for continued training; PREDICTION-only
  1944.       on datasets by applying an existing weights file; In addition
  1945.       to RMS error, the concordance, or c index is displayed. The
  1946.       c index (area under the ROC curve) shows the correctness
  1947.       of the RELATIVE ordering of predictions AMONG the
  1948.       cases; ie, it is a measure of discriminative power of the
  1949.       model. AVAILABILITY: The most updated version of
  1950.       NevProp will be made available by anonymous ftp from the
  1951.       University of Nevada, Reno: On ftp.scs.unr.edu
  1952.       [134.197.10.130] in the directory
  1953.       "pub/goodman/nevpropdir", e.g. README.FIRST (45 kb)
  1954.       or nevprop1.16.shar (138 kb). Version 2 (not yet released)
  1955.       is intended to have some new features: more flexible file
  1956.       formatting (including access to external data files; option to
  1957.       prerandomize data order; randomized stochastic gradient
  1958.       descent; option to rescale predictor (input) variables);
  1959.       linear output units as an alternative to sigmoidal units for
  1960.       use with continuous-valued dependent variables (output
  1961.       targets); cross-entropy (maximum likelihood) criterion
  1962.       function as an alternative to square error for use with
  1963.       categorical dependent variables
  1964.       (classification/symbolic/nominal targets); and interactive
  1965.       interrupt to change settings on-the-fly. Limited support is
  1966.       available from Phil Goodman (goodman@unr.edu),
  1967.       University of Nevada Center for Biomedical Research. 
  1968.  
  1969.     21. Fuzzy ARTmap
  1970.     ++++++++++++++++
  1971.  
  1972.       This is just a small example program. Available for
  1973.       anonymous ftp from park.bu.edu [128.176.121.56] 
  1974.       /pub/fuzzy-artmap.tar.Z (44 kB). 
  1975.  
  1976.     22. PYGMALION
  1977.     +++++++++++++
  1978.  
  1979.       This is a prototype that stems from an ESPRIT project. It
  1980.       implements back-propagation, self organising map, and
  1981.       Hopfield nets. Avaliable for ftp from ftp.funet.fi
  1982.       [128.214.248.6] as /pub/sci/neural/sims/pygmalion.tar.Z
  1983.       (1534 kb). (Original site is imag.imag.fr: 
  1984.       archive/pygmalion/pygmalion.tar.Z). 
  1985.  
  1986.     23. Basis-of-AI-backprop
  1987.     ++++++++++++++++++++++++
  1988.  
  1989.       Earlier versions have been posted in comp.sources.misc and
  1990.       people around the world have used them and liked them.
  1991.       This package is free for ordinary users but shareware for
  1992.       businesses and government agencies ($200/copy, but then
  1993.       for this you get the professional version as well). I do
  1994.       support this package via email. Some of the highlights are: 
  1995.        o in C for UNIX and DOS and DOS binaries 
  1996.        o gradient descent, delta-bar-delta and quickprop 
  1997.        o extra fast 16-bit fixed point weight version as well
  1998.          as a conventional floating point version 
  1999.        o recurrent networks 
  2000.        o numerous sample problems 
  2001.       Available for ftp from ftp.mcs.com in directory 
  2002.       /mcsnet.users/drt. Or see the WWW page 
  2003.       http://www.mcs.com/~drt/home.html. The expanded
  2004.       professional version is $30/copy for ordinary individuals
  2005.       including academics and $200/copy for businesses and
  2006.       government agencies (improved user interface, more
  2007.       activation functions, networks can be read into your own
  2008.       programs, dynamic node creation, weight decay,
  2009.       SuperSAB). More details can be found in the
  2010.       documentation for the student version. Contact: Don
  2011.       Tveter; 5228 N. Nashville Ave.; Chicago, Illinois 60656;
  2012.       drt@mcs.com 
  2013.  
  2014.     24. Matrix Backpropagation
  2015.     ++++++++++++++++++++++++++
  2016.  
  2017.       MBP (Matrix Back Propagation) is a very efficient
  2018.       implementation of the back-propagation algorithm for
  2019.       current-generation workstations. The algorithm includes a
  2020.       per-epoch adaptive technique for gradient descent. All the
  2021.       computations are done through matrix multiplications and
  2022.       make use of highly optimized C code. The goal is to reach
  2023.       almost peak-performances on RISCs with superscalar
  2024.       capabilities and fast caches. On some machines (and with
  2025.       large networks) a 30-40x speed-up can be measured with
  2026.       respect to conventional implementations. The software is
  2027.       available by anonymous ftp from risc6000.dibe.unige.it
  2028.       [130.251.89.154] as /pub/MBPv1.1.tar.Z (Unix version), 
  2029.       /pub/MBPv11.zip.Z (MS-DOS version), /pub/mpbv11.ps
  2030.       (Documentation). For more information, contact Davide
  2031.       Anguita (anguita@dibe.unige.it). 
  2032.  
  2033.     25. WinNN
  2034.     +++++++++
  2035.  
  2036.       WinNN is a shareware Neural Networks (NN) package for
  2037.       windows 3.1. WinNN incorporates a very user friendly
  2038.       interface with a powerful computational engine. WinNN is
  2039.       intended to be used as a tool for beginners and more
  2040.       advanced neural networks users, it provides an alternative
  2041.       to using more expensive and hard to use packages. WinNN
  2042.       can implement feed forward multi-layered NN and uses a
  2043.       modified fast back-propagation for training. Extensive on
  2044.       line help. Has various neuron functions. Allows on the fly
  2045.       testing of the network performance and generalization. All
  2046.       training parameters can be easily modified while WinNN is
  2047.       training. Results can be saved on disk or copied to the
  2048.       clipboard. Supports plotting of the outputs and weight
  2049.       distribution. Available for ftp from winftp.cica.indiana.edu
  2050.       as /pub/pc/win3/programr/winnn093.zip (545 kB). 
  2051.  
  2052.     26. BIOSIM
  2053.     ++++++++++
  2054.  
  2055.       BIOSIM is a biologically oriented neural network
  2056.       simulator. Public domain, runs on Unix (less powerful
  2057.       PC-version is available, too), easy to install, bilingual
  2058.       (german and english), has a GUI (Graphical User
  2059.       Interface), designed for research and teaching, provides
  2060.       online help facilities, offers controlling interfaces, batch
  2061.       version is available, a DEMO is provided.
  2062.       REQUIREMENTS (Unix version): X11 Rel. 3 and above,
  2063.       Motif Rel 1.0 and above, 12 MB of physical memory,
  2064.       recommended are 24 MB and more, 20 MB disc space.
  2065.       REQUIREMENTS (PC version): PC-compatible with MS
  2066.       Windows 3.0 and above, 4 MB of physical memory,
  2067.       recommended are 8 MB and more, 1 MB disc space. Four
  2068.       neuron models are implemented in BIOSIM: a simple
  2069.       model only switching ion channels on and off, the original
  2070.       Hodgkin-Huxley model, the SWIM model (a modified HH
  2071.       model) and the Golowasch-Buchholz model. Dendrites
  2072.       consist of a chain of segments without bifurcation. A
  2073.       neural network can be created by using the interactive
  2074.       network editor which is part of BIOSIM. Parameters can
  2075.       be changed via context sensitive menus and the results of
  2076.       the simulation can be visualized in observation windows
  2077.       for neurons and synapses. Stochastic processes such as
  2078.       noise can be included. In addition, biologically orientied
  2079.       learning and forgetting processes are modeled, e.g.
  2080.       sensitization, habituation, conditioning, hebbian learning
  2081.       and competitive learning. Three synaptic types are
  2082.       predefined (an excitatatory synapse type, an inhibitory
  2083.       synapse type and an electrical synapse). Additional synaptic
  2084.       types can be created interactively as desired. Available for
  2085.       ftp from ftp.uni-kl.de in directory /pub/bio/neurobio: Get 
  2086.       /pub/bio/neurobio/biosim.readme (2 kb) and 
  2087.       /pub/bio/neurobio/biosim.tar.Z (2.6 MB) for the Unix
  2088.       version or /pub/bio/neurobio/biosimpc.readme (2 kb) and 
  2089.       /pub/bio/neurobio/biosimpc.zip (150 kb) for the PC version.
  2090.       Contact: Stefan Bergdoll; Department of Software
  2091.       Engineering (ZXA/US); BASF Inc.; D-67056
  2092.       Ludwigshafen; Germany; bergdoll@zxa.basf-ag.de; phone
  2093.       0621-60-21372; fax 0621-60-43735 
  2094.  
  2095.     27. The Brain
  2096.     +++++++++++++
  2097.  
  2098.       The Brain is an advanced neural network simulator for
  2099.       PCs that is simple enough to be used by non-technical
  2100.       people, yet sophisticated enough for serious research work.
  2101.       It is based upon the backpropagation learning algorithm.
  2102.       Three sample networks are included. The documentation
  2103.       included provides you with an introduction and overview of
  2104.       the concepts and applications of neural networks as well as
  2105.       outlining the features and capabilities of The Brain. The
  2106.       Brain requires 512K memory and MS-DOS or PC-DOS
  2107.       version 3.20 or later (versions for other OS's and machines
  2108.       are available). A 386 (with maths coprocessor) or higher is
  2109.       recommended for serious use of The Brain. Shareware
  2110.       payment required. Demo version is restricted to number of
  2111.       units the network can handle due to memory contraints on
  2112.       PC's. Registered version allows use of extra memory.
  2113.       External documentation included: 39Kb, 20 Pages. Source
  2114.       included: No (Source comes with registration). Available
  2115.       via anonymous ftp from ftp.tu-clausthal.de as 
  2116.       /pub/msdos/science/brain12.zip (78 kb) and from
  2117.       ftp.technion.ac.il as /pub/contrib/dos/brain12.zip (78 kb)
  2118.       Contact: David Perkovic; DP Computing; PO Box 712;
  2119.       Noarlunga Center SA 5168; Australia; Email:
  2120.       dip@mod.dsto.gov.au (preferred) or dpc@mep.com or
  2121.       perkovic@cleese.apana.org.au 
  2122.  
  2123.     28. FuNeGen 1.0
  2124.     +++++++++++++++
  2125.  
  2126.       FuNeGen is a MLP based software program to generate
  2127.       fuzzy rule based classifiers. A limited version (maximum of
  2128.       7 inputs and 3 membership functions for each input) for
  2129.       PCs is available for anonymous ftp from
  2130.       obelix.microelectronic.e-technik.th-darmstadt.de in
  2131.       directory /pub/neurofuzzy. For further information see the
  2132.       file read.me. Contact: Saman K. Halgamuge 
  2133.  
  2134.     29. NeuDL -- Neural-Network Description Language
  2135.     ++++++++++++++++++++++++++++++++++++++++++++++++
  2136.  
  2137.       NeuDL is a description language for the design, training,
  2138.       and operation of neural networks. It is currently limited to
  2139.       the backpropagation neural-network model; however, it
  2140.       offers a great deal of flexibility. For example, the user can
  2141.       explicitly specify the connections between nodes and can
  2142.       create or destroy connections dynamically as training
  2143.       progresses. NeuDL is an interpreted language resembling C
  2144.       or C++. It also has instructions dealing with
  2145.       training/testing set manipulation as well as neural network
  2146.       operation. A NeuDL program can be run in interpreted
  2147.       mode or it can be automatically translated into C++ which
  2148.       can be compiled and then executed. The NeuDL interpreter
  2149.       is written in C++ and can be easly extended with new
  2150.       instructions. NeuDL is available from the anonymous ftp
  2151.       site at The University of Alabama: cs.ua.edu (130.160.44.1)
  2152.       in the file /pub/neudl/NeuDLver021.tar. The tarred file
  2153.       contains the interpreter source code (in C++) a user
  2154.       manual, a paper about NeuDL, and about 25 sample
  2155.       NeuDL programs. A document demonstrating NeuDL's
  2156.       capabilities is also available from the ftp site:
  2157.       /pub/neudl/NeuDL/demo.doc /pub/neudl/demo.doc. For
  2158.       more information contact the author: Joey Rogers
  2159.       (jrogers@buster.eng.ua.edu). 
  2160.  
  2161.     30. NeoC Explorer (Pattern Maker included)
  2162.     ++++++++++++++++++++++++++++++++++++++++++
  2163.  
  2164.       The NeoC software is an implementation of Fukushima's
  2165.       Neocognitron neural network. Its purpose is to test the
  2166.       model and to facilitate interactivity for the experiments.
  2167.       Some substantial features: GUI, explorer and tester
  2168.       operation modes, recognition statistics, performance
  2169.       analysis, elements displaying, easy net construction. PLUS,
  2170.       a pattern maker utility for testing ANN: GUI, text file
  2171.       output, transformations. Available for anonymous FTP
  2172.       from OAK.Oakland.Edu (141.210.10.117) as 
  2173.       /SimTel/msdos/neurlnet/neocog10.zip (193 kB, DOS
  2174.       version) 
  2175.  
  2176.     31. AINET
  2177.     +++++++++
  2178.  
  2179.       aiNet is a shareware Neural Networks (NN) application
  2180.       for MS-Windows 3.1. It does not require learning, has no
  2181.       limits in parameters (input & output neurons), no limits in
  2182.       sample size. It is not sensitive toward noise in the data.
  2183.       Database can be changed dynamically. It provides a way to
  2184.       estimate the rate of error in your prediction. Missing values
  2185.       are handled automatically. It has graphical
  2186.       spreadsheet-like user interface and on-line help system. It
  2187.       provides also several different charts types. aiNet manual
  2188.       (90 pages) is divided into: "User's Guide", "Basics About
  2189.       Modeling with the AINET", "Examples". Special
  2190.       requirements: Windows 3.1, VGA or better. Can be
  2191.       downloaded from 
  2192.       ftp://ftp.cica.indiana.edu/pub/pc/win3/programr/ainet100.zip
  2193.       or from 
  2194.       ftp://oak.oakland.edu/SimTel/win3/math/ainet100.zip 
  2195.  
  2196.    For some of these simulators there are user mailing lists. Get the
  2197.    packages and look into their documentation for further info.
  2198.  
  2199.    If you are using a small computer (PC, Mac, etc.) you may want
  2200.    to have a look at the Central Neural System Electronic Bulletin
  2201.    Board (see answer 13). Modem: 409-737-5312; Sysop: Wesley R.
  2202.    Elsberry; 4160 Pirates' Beach, Galveston, TX, USA;
  2203.    welsberr@orca.tamu.edu. There are lots of small simulator
  2204.    packages, the CNS ANNSIM file set. There is an ftp mirror site
  2205.    for the CNS ANNSIM file set at me.uta.edu [129.107.2.20] in the 
  2206.    /pub/neural directory. Most ANN offerings are in 
  2207.    /pub/neural/annsim. 
  2208.  
  2209.    ------------------------------------------------------------------------
  2210.  
  2211. 18. A: Commercial software packages for NN
  2212. ==========================================
  2213.    simulation?
  2214.    ===========
  2215.  
  2216.     1. nn/xnn
  2217.     +++++++++
  2218.  
  2219.            Name: nn/xnn
  2220.         Company: Neureka ANS
  2221.         Address: Klaus Hansens vei 31B
  2222.                  5037 Solheimsviken
  2223.                  NORWAY
  2224.           Phone:   +47-55544163 / +47-55201548
  2225.           Email:   arnemo@eik.ii.uib.no
  2226.         Basic capabilities:
  2227.          Neural network development tool. nn is a language for specification of
  2228.          neural network simulators. Produces C-code and executables for the
  2229.          specified models, therefore ideal for application development. xnn is
  2230.          a graphical front-end to nn and the simulation code produced by nn.
  2231.          Gives graphical representations in a number of formats of any
  2232.          variables during simulation run-time. Comes with a number of
  2233.          pre-implemented models, including: Backprop (several variants), Self
  2234.          Organizing Maps, LVQ1, LVQ2, Radial Basis Function Networks,
  2235.          Generalized Regression Neural Networks, Jordan nets, Elman nets,
  2236.          Hopfield, etc.
  2237.         Operating system: nn: UNIX or MS-DOS, xnn: UNIX/X-windows
  2238.         System requirements: 10 Mb HD, 2 Mb RAM
  2239.         Approx. price: USD 2000,-
  2240.  
  2241.     2. BrainMaker
  2242.     +++++++++++++
  2243.  
  2244.               Name: BrainMaker, BrainMaker Pro
  2245.            Company: California Scientific Software
  2246.            Address: 10024 Newtown rd, Nevada City, CA, 95959 USA
  2247.          Phone,Fax: 916 478 9040, 916 478 9041
  2248.              Email:  calsci!mittmann@gvgpsa.gvg.tek.com (flakey connection)
  2249.         Basic capabilities:  train backprop neural nets
  2250.         Operating system:   DOS, Windows, Mac
  2251.         System requirements:
  2252.         Uses XMS or EMS for large models(PCs only): Pro version
  2253.         Approx. price:  $195, $795
  2254.  
  2255.         BrainMaker Pro 3.0 (DOS/Windows)     $795
  2256.             Gennetic Training add-on         $250
  2257.           ainMaker 3.0 (DOS/Windows/Mac)     $195
  2258.             Network Toolkit add-on           $150
  2259.         BrainMaker 2.5 Student version       (quantity sales only, about $38 each)
  2260.  
  2261.         BrainMaker Pro C30 Accelerator Board
  2262.                   w/ 5Mb memory              $9750
  2263.                   w/32Mb memory              $13,000
  2264.  
  2265.         Intel iNNTS NN Development System    $11,800
  2266.              Intel EMB Multi-Chip Board      $9750
  2267.              Intel 80170 chip set            $940
  2268.  
  2269.         Introduction To Neural Networks book $30
  2270.  
  2271.         California Scientific Software can be reached at:
  2272.         Phone: 916 478 9040     Fax: 916 478 9041    Tech Support: 916 478 9035
  2273.         Mail: 10024 newtown rd, Nevada City, CA, 95959, USA
  2274.         30 day money back guarantee, and unlimited free technical support.
  2275.         BrainMaker package includes:
  2276.          The book Introduction to Neural Networks
  2277.          BrainMaker Users Guide and reference manual
  2278.              300 pages , fully indexed, with tutorials, and sample networks
  2279.          Netmaker
  2280.              Netmaker makes building and training Neural Networks easy, by
  2281.              importing and automatically creating BrainMaker's Neural Network
  2282.              files.  Netmaker imports Lotus, Excel, dBase, and ASCII files.
  2283.          BrainMaker
  2284.              Full menu and dialog box interface, runs Backprop at 750,000 cps
  2285.              on a 33Mhz 486.
  2286.         ---Features ("P" means is avaliable in professional version only):
  2287.         Pull-down Menus, Dialog Boxes, Programmable Output Files,
  2288.         Editing in BrainMaker,  Network Progress Display (P),
  2289.         Fact Annotation,  supports many printers,  NetPlotter,
  2290.         Graphics Built In (P),  Dynamic Data Exchange (P),
  2291.         Binary Data Mode, Batch Use Mode (P), EMS and XMS Memory (P),
  2292.         Save Network Periodically,  Fastest Algorithms,
  2293.         512 Neurons per Layer (P: 32,000), up to 8 layers,
  2294.         Specify Parameters by Layer (P), Recurrence Networks (P),
  2295.         Prune Connections and Neurons (P),  Add Hidden Neurons In Training,
  2296.         Custom Neuron Functions,  Testing While Training,
  2297.         Stop training when...-function (P),  Heavy Weights (P),
  2298.         Hypersonic Training,  Sensitivity Analysis (P),  Neuron Sensitivity (P),
  2299.         Global Network Analysis (P),  Contour Analysis (P),
  2300.         Data Correlator (P),  Error Statistics Report,
  2301.         Print or Edit Weight Matrices,  Competitor (P), Run Time System (P),
  2302.         Chip Support for Intel, American Neurologics, Micro Devices,
  2303.         Genetic Training Option (P),  NetMaker,  NetChecker,
  2304.         Shuffle,  Data Import from Lotus, dBASE, Excel, ASCII, binary,
  2305.         Finacial Data (P),  Data Manipulation,  Cyclic Analysis (P),
  2306.         User's Guide quick start booklet,
  2307.         Introduction to Neural Networks 324 pp book
  2308.  
  2309.     3. SAS Software/ Neural Net add-on
  2310.     ++++++++++++++++++++++++++++++++++
  2311.  
  2312.              Name: SAS Software
  2313.           Company: SAS Institute, Inc.
  2314.           Address: SAS Campus Drive, Cary, NC 27513, USA
  2315.         Phone,Fax: (919) 677-8000
  2316.             Email: saswss@unx.sas.com (Neural net inquiries only)
  2317.  
  2318.        Basic capabilities:
  2319.          Feedforward nets with numerous training methods
  2320.          and loss functions, plus statistical analogs of
  2321.          counterpropagation and various unsupervised
  2322.          architectures
  2323.        Operating system: Lots
  2324.        System requirements: Lots
  2325.        Uses XMS or EMS for large models(PCs only): Runs under Windows, OS/2
  2326.        Approx. price: Free neural net software, but you have to license
  2327.                       SAS/Base software and preferably the SAS/OR, SAS/ETS,
  2328.                       and/or SAS/STAT products.
  2329.        Comments: Oriented toward data analysis and statistical applications
  2330.  
  2331.     4. NeuralWorks
  2332.     ++++++++++++++
  2333.  
  2334.            Name: NeuralWorks Professional II Plus (from NeuralWare)
  2335.         Company: NeuralWare Inc.
  2336.          Adress: Pittsburgh, PA 15276-9910
  2337.           Phone: (412) 787-8222
  2338.             FAX: (412) 787-8220
  2339.  
  2340.        Distributor for Europe: 
  2341.          Scientific Computers GmbH.
  2342.          Franzstr. 107, 52064 Aachen
  2343.          Germany
  2344.          Tel.   (49) +241-26041
  2345.          Fax.   (49) +241-44983
  2346.          Email. info@scientific.de
  2347.  
  2348.        Basic capabilities:
  2349.          supports over 30 different nets: backprop, art-1,kohonen, 
  2350.          modular neural network, General regression, Fuzzy art-map,
  2351.          probabilistic nets, self-organizing map, lvq, boltmann,
  2352.          bsb, spr, etc...
  2353.          Extendable with optional package. 
  2354.          ExplainNet, Flashcode (compiles net in .c code for runtime),
  2355.          user-defined io in c possible. ExplainNet (to eliminate 
  2356.          extra inputs), pruning, savebest,graph.instruments like 
  2357.          correlation, hinton diagrams, rms error graphs etc..
  2358.        Operating system   : PC,Sun,IBM RS6000,Apple Macintosh,SGI,Dec,HP.
  2359.        System requirements: varies. PC:2MB extended memory+6MB Harddisk space.
  2360.                             Uses windows compatible memory driver (extended).
  2361.                             Uses extended memory.
  2362.        Approx. price      : call (depends on platform)
  2363.        Comments           : award winning documentation, one of the market
  2364.                             leaders in NN software.
  2365.  
  2366.     5. MATLAB Neural Network Toolbox (for use with Matlab
  2367.     +++++++++++++++++++++++++++++++++++++++++++++++++++++
  2368.       4.x)
  2369.       ++++
  2370.  
  2371.          Contact: The MathWorks, Inc.     Phone: 508-653-1415
  2372.                   24 Prime Park Way       FAX: 508-653-2997
  2373.                   Natick, MA 01760 email: info@mathworks.com
  2374.  
  2375.       The Neural Network Toolbox is a powerful collection of
  2376.       MATLAB functions for the design, training, and
  2377.       simulation of neural networks. It supports a wide range of
  2378.       network architectures with an unlimited number of
  2379.       processing elements and interconnections (up to operating
  2380.       system constraints). Supported architectures and training
  2381.       methods include: supervised training of feedforward
  2382.       networks using the perceptron learning rule, Widrow-Hoff
  2383.       rule, several variations on backpropagation (including the
  2384.       fast Levenberg-Marquardt algorithm), and radial basis
  2385.       networks; supervised training of recurrent Elman
  2386.       networks; unsupervised training of associative networks
  2387.       including competitive and feature map layers; Kohonen
  2388.       networks, self-organizing maps, and learning vector
  2389.       quantization. The Neural Network Toolbox contains a
  2390.       textbook-quality Users' Guide, uses tutorials, reference
  2391.       materials and sample applications with code examples to
  2392.       explain the design and use of each network architecture
  2393.       and paradigm. The Toolbox is delivered as MATLAB
  2394.       M-files, enabling users to see the algorithms and
  2395.       implementations, as well as to make changes or create new
  2396.       functions to address a specific application.
  2397.  
  2398.       (Comment by Richard Andrew Miles Outerbridge,
  2399.       RAMO@UVPHYS.PHYS.UVIC.CA:) Matlab is spreading
  2400.       like hotcakes (and the educational discounts are very
  2401.       impressive). The newest release of Matlab (4.0) ansrwers
  2402.       the question "if you could only program in one language
  2403.       what would it be?". The neural network toolkit is worth
  2404.       getting for the manual alone. Matlab is available with lots
  2405.       of other toolkits (signal processing, optimization, etc.) but I
  2406.       don't use them much - the main package is more than
  2407.       enough. The nice thing about the Matlab approach is that
  2408.       you can easily interface the neural network stuff with
  2409.       anything else you are doing. 
  2410.  
  2411.     6. Propagator
  2412.     +++++++++++++
  2413.  
  2414.         Contact: ARD Corporation,
  2415.                  9151 Rumsey Road, Columbia, MD  21045, USA
  2416.                  propagator@ard.com
  2417.         Easy to use neural network training package.  A GUI implementation of
  2418.         backpropagation networks with five layers (32,000 nodes per layer).
  2419.         Features dynamic performance graphs, training with a validation set,
  2420.         and C/C++ source code generation.
  2421.         For Sun (Solaris 1.x & 2.x, $499),
  2422.             PC  (Windows 3.x, $199)
  2423.             Mac (System 7.x, $199)
  2424.         Floating point coprocessor required, Educational Discount,
  2425.         Money Back Guarantee, Muliti User Discount
  2426.         Windows Demo on:
  2427.           nic.funet.fi        /pub/msdos/windows/demo
  2428.           oak.oakland.edu     /pub/msdos/neural_nets
  2429.               gatordem.zip    pkzip 2.04g archive file
  2430.               gatordem.txt    readme text file
  2431.  
  2432.     7. NeuroForecaster
  2433.     ++++++++++++++++++
  2434.  
  2435.          Name:    NeuroForecaster(TM)/Genetica 3.1
  2436.          Contact: Accel Infotech (S) Pte Ltd; 648 Geylang Road;
  2437.                   Republic of Singapore 1438; Phone: +65-7446863; Fax: +65-7492467
  2438.                   accel@solomon.technet.sg
  2439.          For IBM PC 386/486 with mouse, or compatibles MS Windows* 3.1,
  2440.          MS DOS 5.0 or above 4 MB RAM, 5 MB available harddisk space min;
  2441.          3.5 inch floppy drive, VGA monitor or above, Math coprocessor recommended.
  2442.            Neuroforecaster 3.1 for Windows is priced at US$1199 per single user
  2443.          license.  Please email us (accel@solomon.technet.sg) for order form. 
  2444.            More information about NeuroForecaster(TM)/Genetical may be found in 
  2445.          ftp://ftp.technet.sg/Technet/user/accel/nfga40.exe
  2446.            NeuroForecaster is a user-friendly neural network program specifically
  2447.          designed for building sophisticated and powerful forecasting and
  2448.          decision-support systems (Time-Series Forecasting, Cross-Sectional
  2449.          Classification, Indicator Analysis)
  2450.          Features:
  2451.          * GENETICA Net Builder Option for automatic network optimization
  2452.          * 12 Neuro-Fuzzy Network Models      
  2453.          * Multitasking & Background Training Mode            
  2454.          * Unlimited Network Capacity         
  2455.          * Rescaled Range Analysis & Hurst Exponent to Unveil Hidden Market
  2456.            Cycles & Check for Predictability  
  2457.          * Correlation Analysis to Compute Correlation Factors to Analyze the 
  2458.            Significance of Indicators                 
  2459.          * Weight Histogram to Monitor the Progress of Learning
  2460.          * Accumulated Error Analysis to Analyze the Strength of Input Indicators     
  2461.          Its user-friendly interface allows the users to build applications quickly, 
  2462.          easily and interactively, analyze the data visually and see the results 
  2463.          immediately.  
  2464.          The following example applications are included in the package:
  2465.          * Credit Rating - for generating the credit rating of bank loan
  2466.            applications.
  2467.          * Stock market 6 monthly returns forecast
  2468.          * Stock selection based on company ratios
  2469.          * US$ to Deutschmark exchange rate forecast
  2470.          * US$ to Yen exchange rate forecast
  2471.          * US$ to SGD exchange rate forecast
  2472.          * Property price valuation
  2473.          * XOR - a classical problem to show the results are better than others
  2474.          * Chaos - Prediction of Mackey-Glass chaotic time series
  2475.          * SineWave - For demonstrating the power of Rescaled Range Analysis and
  2476.            significance of window size
  2477.          Techniques Implemented:
  2478.          * GENETICA Net Builder Option - network creation & optimization based on
  2479.            Darwinian evolution theory
  2480.          * Backprop Neural Networks - the most widely-used training algorithm
  2481.          * Fastprop Neural Networks - speeds up training of large problems
  2482.          * Radial Basis Function Networks - best for pattern classification problems
  2483.          * Neuro-Fuzzy Network
  2484.          * Rescaled Range Analysis - computes Hurst exponents to unveil hidden
  2485.            cycles & check for predictability
  2486.          * Correlation Analysis - to identify significant input indicators
  2487.  
  2488.     8. Products of NESTOR, Inc.
  2489.     +++++++++++++++++++++++++++
  2490.  
  2491.       530 Fifth Avenue; New York, NY 10036; USA; Tel.:
  2492.       001-212-398-7955
  2493.  
  2494.       Founders: Dr. Leon Cooper (having a Nobel Price) and Dr.
  2495.       Charles Elbaum (Brown University). Neural Network
  2496.       Models: Adaptive shape and pattern recognition (Restricted
  2497.       Coulomb Energy - RCE) developed by NESTOR is one of
  2498.       the most powerfull Neural Network Model used in a later
  2499.       products. The basis for NESTOR products is the Nestor
  2500.       Learning System - NLS. Later are developed: Character
  2501.       Learning System - CLS and Image Learning System -
  2502.       ILS. Nestor Development System - NDS is a development
  2503.       tool in Standard C - one of the most powerfull PC-Tools
  2504.       for simulation and development of Neural Networks. NLS
  2505.       is a multi-layer, feed forward system with low connectivity
  2506.       within each layer and no relaxation procedure used for
  2507.       determining an output response. This unique architecture
  2508.       allows the NLS to operate in real time without the need for
  2509.       special computers or custom hardware. NLS is composed of
  2510.       multiple neural networks, each specializing in a subset of
  2511.       information about the input patterns. The NLS integrates
  2512.       the responses of its several parallel networks to produce a
  2513.       system response that is far superior to that of other neural
  2514.       networks. Minimized connectivity within each layer results
  2515.       in rapid training and efficient memory utilization- ideal for
  2516.       current VLSI technology. Intel has made such a chip -
  2517.       NE1000. 
  2518.  
  2519.     9. NeuroShell2/NeuroWindows
  2520.     +++++++++++++++++++++++++++
  2521.  
  2522.       NeuroShell 2 combines powerful neural network
  2523.       architectures, a Windows icon driven user interface, and
  2524.       sophisticated utilities for MS-Windows machines. Internal
  2525.       format is spreadsheet, and users can specify that
  2526.       NeuroShell 2 use their own spreadsheet when editing.
  2527.       Includes both Beginner's and Advanced systems, a
  2528.       Runtime capability, and a choice of 15 Backpropagation,
  2529.       Kohonen, PNN and GRNN architectures. Includes Rules,
  2530.       Symbol Translate, Graphics, File Import/Export modules
  2531.       (including MetaStock from Equis International) and
  2532.       NET-PERFECT to prevent overtraining. Options
  2533.       available: Market Technical Indicator Option ($295),
  2534.       Market Technical Indicator Option with Optimizer ($590),
  2535.       and Race Handicapping Option ($149). NeuroShell price:
  2536.       $495.
  2537.  
  2538.       NeuroWindows is a programmer's tool in a Dynamic Link
  2539.       Library (DLL) that can create as many as 128 interactive
  2540.       nets in an application, each with 32 slabs in a single
  2541.       network, and 32K neurons in a slab. Includes
  2542.       Backpropagation, Kohonen, PNN, and GRNN paradigms.
  2543.       NeuroWindows can mix supervised and unsupervised nets.
  2544.       The DLL may be called from Visual Basic, Visual C,
  2545.       Access Basic, C, Pascal, and VBA/Excel 5. NeuroWindows
  2546.       price: $369.
  2547.  
  2548.       Contact: Ward Systems Group, Inc.; Executive Park West;
  2549.       5 Hillcrest Drive; Frederick, MD 21702; USA; Phone: 301
  2550.       662-7950; FAX: 301 662-5666. Contact us for a free demo
  2551.       diskette and Consumer's Guide to Neural Networks. 
  2552.  
  2553.     10. NuTank
  2554.     ++++++++++
  2555.  
  2556.       NuTank stands for NeuralTank. It is educational and
  2557.       entertainment software. In this program one is given the
  2558.       shell of a 2 dimentional robotic tank. The tank has various
  2559.       I/O devices like wheels, whiskers, optical sensors, smell, fuel
  2560.       level, sound and such. These I/O sensors are connected to
  2561.       Neurons. The player/designer uses more Neurons to
  2562.       interconnect the I/O devices. One can have any level of
  2563.       complexity desired (memory limited) and do subsumptive
  2564.       designs. More complex design take slightly more fuel, so life
  2565.       is not free. All movement costs fuel too. One can also tag
  2566.       neuron connections as "adaptable" that adapt their weights
  2567.       in acordance with the target neuron. This allows neurons
  2568.       to learn. The Neuron editor can handle 3 dimention arrays
  2569.       of neurons as single entities with very flexible interconect
  2570.       patterns.
  2571.  
  2572.       One can then design a scenario with walls, rocks, lights, fat
  2573.       (fuel) sources (that can be smelled) and many other such
  2574.       things. Robot tanks are then introduced into the Scenario
  2575.       and allowed interact or battle it out. The last one alive
  2576.       wins, or maybe one just watches the motion of the robots
  2577.       for fun. While the scenario is running it can be stopped,
  2578.       edited, zoom'd, and can track on any robot.
  2579.  
  2580.       The entire program is mouse and graphicly based. It uses
  2581.       DOS and VGA and is written in TurboC++. There will
  2582.       also be the ability to download designs to another computer
  2583.       and source code will be available for the core neural
  2584.       simulator. This will allow one to design neural systems and
  2585.       download them to real robots. The design tools can handle
  2586.       three dimentional networks so will work with video camera
  2587.       inputs and such. Eventualy I expect to do a port to UNIX
  2588.       and multi thread the sign. I also expect to do a Mac port
  2589.       and maybe NT or OS/2
  2590.  
  2591.       Copies of NuTank cost $50 each. Contact: Richard Keene;
  2592.       Keene Educational Software;
  2593.       Dick.Keene@Central.Sun.COM
  2594.  
  2595.       NuTank shareware with the Save options disabled is
  2596.       available via anonymous ftp from the Internet, see the file 
  2597.       /pub/incoming/nutank.readme on the host
  2598.       cher.media.mit.edu. 
  2599.  
  2600.     11. Neuralyst
  2601.     +++++++++++++
  2602.  
  2603.       Name: Neuralyst Version 1.4; Company: Cheshire
  2604.       Engineering Corporation; Address: 650 Sierra Madre Villa,
  2605.       Suite 201, Pasedena CA 91107; Phone: 818-351-0209;
  2606.       Fax: 818-351-8645;
  2607.  
  2608.       Basic capabilities: training of backpropogation neural nets.
  2609.       Operating system: Windows or Macintosh running
  2610.       Microsoft Excel Spreadsheet. Neuralyst is an add-in
  2611.       package for Excel. Approx. price: $195 for windows or
  2612.       Mac. Comments: A simple model that is easy to use.
  2613.       Integrates nicely into Microsoft Excel. Allows user to
  2614.       create, train, and run backprop ANN models entirely
  2615.       within an Excel spreadsheet. Provides macro functions that
  2616.       can be called from Excel macro's, allowing you to build a
  2617.       custom Window's interface using Excel's macro language
  2618.       and Visual Basic tools. The new version 1.4 includes a
  2619.       genetic algorithm to guide the training process. A good
  2620.       bargain to boot. (Comments by Duane Highley, a user and
  2621.       NOT the program developer.
  2622.       dhighley@ozarks.sgcl.lib.mo.us) 
  2623.  
  2624.     12. NeuFuz4
  2625.     +++++++++++
  2626.  
  2627.       Name: NeuFuz4 Company: National Semiconductor
  2628.       Corporation Address: 2900 Semiconductor Drive, Santa
  2629.       Clara, CA, 95052, or: Industriestrasse 10, D-8080
  2630.       Fuerstenfeldbruck, Germany, or: Sumitomo Chemical
  2631.       Engineering Center, Bldg. 7F 1-7-1, Nakase, Mihama-Ku,
  2632.       Chiba-City, Ciba Prefecture 261, JAPAN, or: 15th Floor,
  2633.       Straight Block, Ocean Centre, 5 Canton Road, Tsim Sha
  2634.       Tsui East, Kowloon, Hong Kong, Phone: (800) 272-9959
  2635.       (Americas), : 011-49-8141-103-0 Germany :
  2636.       0l1-81-3-3299-7001 Japan : (852) 737-1600 Hong Kong
  2637.       Email: neufuz@esd.nsc.com (Neural net inquiries only)
  2638.       URL:
  2639.       http://www.commerce.net/directories/participants/ns/home.html
  2640.       Basic capabilities: Uses backpropagation techniques to
  2641.       initially select fuzzy rules and membership functions. The
  2642.       result is a fuzzy associative memory (FAM) which
  2643.       implements an approximation of the training data.
  2644.       Operating Systems: 486DX-25 or higher with math
  2645.       co-processor DOS 5.0 or higher with Windows 3.1, mouse,
  2646.       VGA or better, minimum 4 MB RAM, and parallel port.
  2647.       Approx. price : depends on version - see below. Comments
  2648.       : Not for the serious Neural Network researcher, but good
  2649.       for a person who has little understanding of Neural Nets -
  2650.       and wants to keep it that way. The systems are aimed at
  2651.       low end controls applications in automotive, industrial, and
  2652.       appliance areas. NeuFuz is a neural-fuzzy technology
  2653.       which uses backpropagation techniques to initially select
  2654.       fuzzy rules and membership functions. Initial stages of
  2655.       design using NeuFuz technology are performed using
  2656.       training data and backpropagation. The result is a fuzzy
  2657.       associative memory (FAM) which implements an
  2658.       approximation of the training data. By implementing a
  2659.       FAM, rather than a multi-layer perceptron, the designer
  2660.       has a solution which can be understood and tuned to a
  2661.       particular application using Fuzzy Logic design techniques.
  2662.       There are several different versions, some with COP8 Code
  2663.       Generator (COP8 is National's family of 8-bit
  2664.       microcontrollers) and COP8 in-circuit emulator (debug
  2665.       module). 
  2666.  
  2667.     13. Cortex-Pro
  2668.     ++++++++++++++
  2669.  
  2670.       Cortex-Pro information is on WWW at: 
  2671.       http://www.neuronet.ph.kcl.ac.uk/neuronet/software/cortex/www1.html.
  2672.       You can download a working demo from there. Contact:
  2673.       Michael Reiss (
  2674.       http://www.mth.kcl.ac.uk/~mreiss/mick.html) email:
  2675.       <m.reiss@kcl.ac.uk>. 
  2676.  
  2677.     14. PARTEK
  2678.     ++++++++++
  2679.  
  2680.       PARTEK is a powerful, integrated environment for visual
  2681.       and quantitative data analysis and pattern recognition.
  2682.       Drawing from a wide variety of disciplines including
  2683.       Artificial Neural Networks, Fuzzy Logic, Genetic
  2684.       Algorithms, and Statistics, PARTEK integrates data
  2685.       analysis and modeling tools into an easy to use "point and
  2686.       click" system. The following modules are available from
  2687.       PARTEK; functions from different modules are integrated
  2688.       with each other whereever possible: 
  2689.        1. The PARTEK/AVB - The Analytical/Visual Base.
  2690.          (TM) 
  2691.  
  2692.               * Analytical Spreadsheet (TM)
  2693.                 The Analytical Spreadsheet is a powerful and easy to use data analysis,
  2694.                 transformations, and visualization tool.  Some features include:
  2695.                    - import native format ascii/binary data
  2696.                    - recognition and resolution of missing data
  2697.                    - complete set of common mathematical & statistical functions
  2698.                    - contingency table analysis / correspondence analysis
  2699.                    - univariate histogram analysis
  2700.                    - extensive set of smoothing and normalization transformations
  2701.                    - easily and quickly plot color-coded 1-D curves and histograms,
  2702.                      2-D, 3-D, and N-D mapped scatterplots, highlighting selected
  2703.                      patterns
  2704.                    - Command Line (Tcl) and Graphical Interface
  2705.  
  2706.               * Pattern Visualization System (TM)
  2707.                 The Pattern Visualization System offers the most powerful tools for
  2708.                 visual analysis of the patterns in your data.  Some features include:
  2709.                    - automatically maps N-D data down to 3-D for visualization of
  2710.                      *all* of your variables at once
  2711.                    - hard copy color Postscript output
  2712.                    - a variety of color-coding, highlighting, and labeling options
  2713.                      allow you to generate meaningful graphics
  2714.  
  2715.               * Data Filters
  2716.                 Filter out selected rows and/or columns of your data for flexible and
  2717.                 efficient cross-validation, jackknifing, bootstrapping, feature set
  2718.                 evaluation, and more.
  2719.  
  2720.               * Random # Generators
  2721.                 Generate random numbers from any of the following parameterized 
  2722.                 distributions:
  2723.                    - uniform, normal, exponential, gamma, binomial, poisson
  2724.  
  2725.               * Many distance/similarity metrics
  2726.                 Choose the appropriate distance metric for your data:
  2727.                    - euclidean, mahalanobis, minkowski, maximum value, absolute value,
  2728.                      shape coefficient, cosine coefficient, pearson correlation,
  2729.                      rank correlation, kendall's tau, canberra, and bray-curtis
  2730.  
  2731.               * Tcl/Tk command line interface
  2732.  
  2733.        2. The PARTEK/DSA - Data Structure Analysis
  2734.          Module 
  2735.  
  2736.               * Principal Components Analysis and Regression
  2737.                 Also known as Eigenvector Projection or Karhunen-Loeve Expansions,
  2738.                 PCA removes redundant information from your data.
  2739.                    - component analysis, correlate PC's with original variables
  2740.                    - choice of covariance, correlation, or product dispersion matrices
  2741.                    - choice of eigenvector, y-score, and z-score projections
  2742.                    - view SCREE and log-eigenvalue plots
  2743.  
  2744.               * Cluster Analysis
  2745.                 Does the data form groups?  How many?  How compact?  Cluster Analysis
  2746.                 is the tool to answer these questions.
  2747.                    - choose between several distance metrics
  2748.                    - optionally weight individual patterns
  2749.                    - manually or auto-select the cluster number and initial centers
  2750.                    - dump cluster counts, mean, cluster to cluster distances,
  2751.                      cluster variances, and cluster labeled data to a matrix viewer or
  2752.                      the Analytical Spreadsheet for further analysis
  2753.                    - visualize n-dimensional clustering
  2754.                    - assess goodness of partion using several internal and external
  2755.                      criteria metrics
  2756.  
  2757.               * N-Dimensional Histogram Analysis
  2758.                 Among the most inportant questions a researcher needs to know when
  2759.                 analyzing patterns is whether or not the patterns can distinguish
  2760.                 different classes of data.  N-D Histogram Analysis is one tool to 
  2761.                 answer this question.
  2762.                    - measures histogram overlap in n-dimensional space
  2763.                    - automatically find the best subset of features
  2764.                    - rank the overlap of your best feature combinations
  2765.  
  2766.               * Non-Linear Mapping
  2767.                 NLM is an iterative algorithm for visually analyzing the structure of
  2768.                 n-dimensional data.  NLM produces a non-linear mapping of data which
  2769.                 preserves interpoint distances of n-dimensional data while reducing
  2770.                 to a lower dimensionality - thus preserving the structure of the data.
  2771.                    - visually analyze structure of n-dimensional data
  2772.                    - track progress with error curves
  2773.                    - orthogonal, PCA, and random initialization
  2774.  
  2775.        3. The PARTEK/CP - Classification and Prediction
  2776.          Module 
  2777.  
  2778.               * Multi-Layer Perceptron
  2779.                 The most popular among the neural pattern recognition tools is the MLP.
  2780.                 PARTEK takes the MLP to a new dimension, by allowing the network to 
  2781.                 learn by adapting ALL of its parameters to solve a problem.
  2782.                    - adapts output bias, neuron activation steepness, and neuron
  2783.                      dynamic range, as well as weights and input biases
  2784.                    - auto-scaling at input and output - no need to rescale your data
  2785.                    - choose between sigmoid, gaussian, linear, or mixture of neurons
  2786.                    - learning rate, momentum can be set independently for each parameter
  2787.                    - variety of learning methods and network initializations
  2788.                    - view color-coded network, error, etc as network trains, tests, runs
  2789.  
  2790.               * Learning Vector Quantization
  2791.                 Because LVQ is a multiple prototype classifier, it adapts to identify
  2792.                 multiple sub-groups within classes
  2793.                    - LVQ1, LVQ2, and LVQ3 training methods
  2794.                    - 3 different functions for adapting learning rate
  2795.                    - choose between several distance metrics
  2796.                    - fuzzy and crisp classifications
  2797.                    - set number of prototypes individually for each class
  2798.  
  2799.               * Bayesian Classifier
  2800.                 Bayes methods are the statistical decision theory approach to 
  2801.                 classification.  This classifier uses statistical properties of your
  2802.                 data to develop a classification model.
  2803.  
  2804.       PARTEK is available on HP, IBM, Silicon Graphics, and
  2805.       SUN workstations. For more information, send email to
  2806.       "info@partek.com" or call (314)926-2329. 
  2807.  
  2808.     15. NeuroSolutions v2.0
  2809.     +++++++++++++++++++++++
  2810.  
  2811.       NeuroSolutions is a graphical neural network simulation tool. It is  
  2812.       the only commercial Windows package to support trajectory learning  
  2813.       with backpropagation through time.  Because of its object-oriented  
  2814.       design, NeuroSolutions provides the flexibility needed to construct  
  2815.       a wide range of learning paradigms and network topologies.  Its GUI  
  2816.       and extensive probing ability streamline the experimentation process  
  2817.       by providing real-time analysis of the network during learning.
  2818.  
  2819.       Construct any neural network belonging to the additive model,  
  2820.       including locally and globally recurrent systems.  Use a variety of  
  2821.       unsupervised learning procedures, such as Hebbian, Sanger's, Oja's,  
  2822.       Competitive and Kohonen.  Implement RBF, PCA, counterpropagation and  
  2823.       other hybrid network topologies by seamlessly integrating  
  2824.       supervised and unsupervised learning.
  2825.  
  2826.       During learning, animate changes of internal variables such as  
  2827.       activations, weights, sensitivities and gradients with a variety of  
  2828.       probes.  Examples are the oscilloscope, spectrum analyzer, 3D state  
  2829.       space, scatter, 3D surface, matrix and bitmap.
  2830.  
  2831.       NeuroSolutions'  NeuralWizard utility automates the neural network  
  2832.       design process.  Choose between a wide range of neural models. The  
  2833.       network parameters are dynamically adjusted based on the user's  
  2834.       training data.  It is a powerful tool used by both beginners and  
  2835.       researchers alike.
  2836.  
  2837.       NeuroSolutions offers advanced features to meet the integration  
  2838.       needs of neural network developers.  Once a system is designed and  
  2839.       simulated using the icon-based development environment,  
  2840.       NeuroSolutions will generate ANSI-compatible C++ source code to be  
  2841.       compiled and linked into custom applications.  NeuroSolutions can  
  2842.       also be customized through user-defined DLL's and OLE support.
  2843.  
  2844.       Price: $195 - $1995
  2845.  
  2846.       Demo copy available from company or by anonymous ftp:
  2847.               ftp://oak.oakland.edu/SimTel/win3/neurlnet/ns2demo1.zip
  2848.               ftp://oak.oakland.edu/SimTel/win3/neurlnet/ns2demo2.zip
  2849.  
  2850.               NeuroDimension, Inc.
  2851.               720 S.W. 2nd Ave., Suite 458
  2852.               Gainesville FL, 32601
  2853.       Phone:  (800) 634-3327 or
  2854.               (904) 377-5144
  2855.       FAX:    (904) 338-6779
  2856.       Email:  info@nd.com
  2857.  
  2858.    ------------------------------------------------------------------------
  2859.  
  2860. 19. A: Neural Network hardware?
  2861. ===============================
  2862.  
  2863.    [who will write some short comment on the most important
  2864.    HW-packages and chips?]
  2865.  
  2866.    The Number 1 of each volume of the journal "Neural Networks"
  2867.    has a list of some dozens of suppliers of Neural Network support:
  2868.    Software, Hardware, Support, Programming, Design and Service.
  2869.  
  2870.    There is an article by J.A. Hegt (Eindhoven) from 1993 available
  2871.    from ftp://ftp.urc.tue.nl/pub/neural/hardware_general.ps.gz 
  2872.  
  2873.    Here is a short list of companies: 
  2874.  
  2875.     1. HNC, INC.
  2876.     ++++++++++++
  2877.  
  2878.          5501 Oberlin Drive
  2879.          San Diego
  2880.          California 92121
  2881.          (619) 546-8877
  2882.             and a second address at
  2883.          7799 Leesburg Pike, Suite 900
  2884.          Falls Church, Virginia
  2885.          22043
  2886.          (703) 847-6808
  2887.             Note: Australian Dist.: Unitronics 
  2888.                                     Tel : (09) 4701443
  2889.                                     Contact: Martin Keye
  2890.          HNC markets:
  2891.           'Image Document Entry Processing Terminal' - it recognises
  2892.           handwritten documents and converts the info to ASCII.
  2893.           'ExploreNet 3000' - a NN demonstrator
  2894.           'Anza/DP Plus'- a Neural Net board with 25MFlop or 12.5M peak 
  2895.           interconnects per second.
  2896.  
  2897.     2. SAIC (Sience Application International Corporation)
  2898.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2899.  
  2900.          10260 Campus Point Drive
  2901.          MS 71, San Diego
  2902.          CA 92121
  2903.          (619) 546 6148
  2904.          Fax: (619) 546 6736
  2905.  
  2906.     3. Micro Devices
  2907.     ++++++++++++++++
  2908.  
  2909.          30 Skyline Drive
  2910.          Lake Mary
  2911.          FL 32746-6201
  2912.          (407) 333-4379
  2913.          MicroDevices makes   MD1220 - 'Neural Bit Slice'
  2914.          Each of the products mentioned sofar have very different usages.
  2915.          Although this sounds similar to Intel's product, the
  2916.          architectures are not.
  2917.  
  2918.     4. Intel Corp
  2919.     +++++++++++++
  2920.  
  2921.          2250 Mission College Blvd
  2922.          Santa Clara, Ca 95052-8125
  2923.          Attn ETANN, Mail Stop SC9-40
  2924.          (408) 765-9235
  2925.          Intel is making an experimental chip:
  2926.          80170NW - Electrically trainable Analog Neural Network (ETANN)
  2927.          It has 64 'neurons' on it - almost fully internally connectted
  2928.          and the chip can be put in an hierarchial architecture to do 2 Billion
  2929.          interconnects per second.
  2930.          Support software by
  2931.            California Scientific Software
  2932.            10141 Evening Star Dr #6
  2933.            Grass Valley, CA 95945-9051
  2934.            (916) 477-7481
  2935.          Their product is called 'BrainMaker'.
  2936.  
  2937.     5. NeuralWare, Inc
  2938.     ++++++++++++++++++
  2939.  
  2940.          Penn Center West
  2941.          Bldg IV Suite 227
  2942.          Pittsburgh
  2943.          PA 15276
  2944.          They only sell software/simulator but for many platforms.
  2945.  
  2946.     6. Tubb Research Limited
  2947.     ++++++++++++++++++++++++
  2948.  
  2949.          7a Lavant Street
  2950.          Peterfield
  2951.          Hampshire
  2952.          GU32 2EL
  2953.          United Kingdom
  2954.          Tel: +44 730 60256
  2955.  
  2956.     7. Adaptive Solutions Inc
  2957.     +++++++++++++++++++++++++
  2958.  
  2959.          1400 NW Compton Drive
  2960.          Suite 340
  2961.          Beaverton, OR 97006
  2962.          U. S. A.
  2963.          Tel: 503-690-1236;   FAX: 503-690-1249
  2964.  
  2965.     8. NeuroDynamX, Inc.
  2966.     ++++++++++++++++++++
  2967.  
  2968.          4730 Walnut St., Suite 101B
  2969.          Boulder, CO 80301
  2970.          Voice: (303) 442-3539   Fax: (303) 442-2854
  2971.          Internet: techsupport@ndx.com
  2972.          NDX sells a number neural network hardware products:
  2973.          NDX Neural Accelerators: a line of i860-based accelerator cards for
  2974.          the PC that give up to 45 million connections per second for use 
  2975.          with the DynaMind neural network software.
  2976.          iNNTS: Intel's 80170NX (ETANN) Neural Network Training System. NDX's president
  2977.          was one of the co-designers of this chip.
  2978.  
  2979.     9. IC Tech
  2980.     ++++++++++
  2981.  
  2982.       NEURO-COMPUTING IC's:
  2983.       *  DANN050L (dendro-dendritic artificial neural network)
  2984.          + 50 neurons fully connected at the input
  2985.          + on-chip digital learning capability
  2986.          + 6 billion connections/sec peak speed
  2987.          + learns 7 x 7 template in < 50 nsec., recalls in < 400 nsec.
  2988.          + low power < 100 milli Watts
  2989.          + 64-pin package
  2990.       *  NCA717D  (neuro correlator array)
  2991.          + analog template matching in < 500 nsec.
  2992.          + analog input / digital output pins for real-time computation 
  2993.          + vision applications in stereo and motion computation
  2994.          + 40-pin package 
  2995.       NEURO COMPUTING BOARD:
  2996.       *  ICT1050 
  2997.          + IBM PC compatible or higher
  2998.          + with on-board DANN050L
  2999.          + digital interface
  3000.          + custom configurations available
  3001.       Contact:
  3002.       IC Tech (Innovative Computing Technologies, Inc.)
  3003.       4138 Luff Court
  3004.       Okemos, MI 48864
  3005.       (517) 349-4544
  3006.       ictech@mcimail.com
  3007.  
  3008.    And here is an incomplete overview over known Neural
  3009.    Computers with their newest known reference.
  3010.  
  3011.    \subsection*{Digital}
  3012.    \subsubsection{Special Computers}
  3013.  
  3014.    {\bf AAP-2}
  3015.    Takumi Watanabe, Yoshi Sugiyama, Toshio Kondo, and Yoshihiro Kitamura.
  3016.    Neural network simulation on a massively parallel cellular array
  3017.    processor: AAP-2. 
  3018.    In International Joint Conference on Neural Networks, 1989.
  3019.  
  3020.    {\bf ANNA}
  3021.    B.E.Boser, E.Sackinger, J.Bromley, Y.leChun, and L.D.Jackel.\\
  3022.    Hardware Requirements for Neural Network Pattern Classifiers.\\
  3023.    In {\it IEEE Micro}, 12(1), pages 32-40, February 1992.
  3024.  
  3025.    {\bf Analog Neural Computer}
  3026.    Paul Mueller et al. 
  3027.    Design and performance of a prototype analog neural computer. 
  3028.    In Neurocomputing, 4(6):311-323, 1992.
  3029.  
  3030.    {\bf APx -- Array Processor Accelerator}\\
  3031.    F.Pazienti.\\
  3032.    Neural networks simulation with array processors. 
  3033.    In {\it Advanced Computer Technology, Reliable Systems and Applications;
  3034.    Proceedings of the 5th Annual Computer Conference}, pages 547-551. 
  3035.    IEEE Comput. Soc. Press, May 1991. ISBN: 0-8186-2141-9.
  3036.  
  3037.    {\bf ASP -- Associative String Processor}\\
  3038.    A.Krikelis.\\
  3039.    A novel massively associative processing architecture for the
  3040.    implementation artificial neural networks.\\
  3041.    In {\it 1991 International Conference on Acoustics, Speech and 
  3042.    Signal Processing}, volume 2, pages 1057-1060. IEEE Comput. Soc. Press,
  3043.    May 1991.
  3044.  
  3045.    {\bf BSP400}
  3046.    Jan N.H. Heemskerk, Jacob M.J. Murre, Jaap Hoekstra, Leon H.J.G.
  3047.    Kemna, and Patrick T.W. Hudson. 
  3048.    The bsp400: A modular neurocomputer assembled from 400 low-cost
  3049.    microprocessors. 
  3050.    In International Conference on Artificial Neural Networks. Elsevier
  3051.    Science, 1991.
  3052.  
  3053.    {\bf BLAST}\\
  3054.    J.G.Elias, M.D.Fisher, and C.M.Monemi.\\
  3055.    A multiprocessor machine for large-scale neural network simulation.
  3056.    In {\it IJCNN91-Seattle: International Joint Conference on Neural
  3057.    Networks}, volume 1, pages 469-474. IEEE Comput. Soc. Press, July 1991.
  3058.    ISBN: 0-7883-0164-1.
  3059.  
  3060.    {\bf CNAPS Neurocomputer}\\
  3061.    H.McCartor\\
  3062.    Back Propagation Implementation on the Adaptive Solutions CNAPS
  3063.    Neurocomputer.\\
  3064.    In {\it Advances in Neural Information Processing Systems}, 3, 1991.
  3065.  
  3066.    {\bf GENES~IV and MANTRA~I}\\
  3067.    Paolo Ienne and  Marc A. Viredaz\\
  3068.    {GENES~IV}: A Bit-Serial Processing Element for a Multi-Model 
  3069.       Neural-Network Accelerator\\
  3070.    Proceedings of the International Conference on Application Specific Array
  3071.       Processors, Venezia, 1993.
  3072.  
  3073.    {\bf MA16 -- Neural Signal Processor}
  3074.    U.Ramacher, J.Beichter, and N.Bruls.\\
  3075.    Architecture of a general-purpose neural signal processor.\\
  3076.    In {\it IJCNN91-Seattle: International Joint Conference on Neural
  3077.    Networks}, volume 1, pages 443-446. IEEE Comput. Soc. Press, July 1991.
  3078.    ISBN: 0-7083-0164-1.
  3079.  
  3080.    {\bf MANTRA I}\\
  3081.    Marc A. Viredaz\\
  3082.    {MANTRA~I}: An {SIMD} Processor Array for Neural Computation
  3083.    Proceedings of the Euro-ARCH'93 Conference, {M\"unchen}, 1993.
  3084.  
  3085.    {\bf Mindshape}
  3086.    Jan N.H. Heemskerk, Jacob M.J. Murre Arend Melissant, Mirko Pelgrom,
  3087.    and Patrick T.W. Hudson. 
  3088.    Mindshape: a neurocomputer concept based on a fractal architecture. 
  3089.    In International Conference on Artificial Neural Networks. Elsevier
  3090.    Science, 1992. 
  3091.  
  3092.    {\bf mod 2}
  3093.    Michael L. Mumford, David K. Andes, and Lynn R. Kern. 
  3094.    The mod 2 neurocomputer system design. 
  3095.    In IEEE Transactions on Neural Networks, 3(3):423-433, 1992.
  3096.  
  3097.    {\bf NERV}\\
  3098.    R.Hauser, H.Horner, R. Maenner, and M.Makhaniok.\\
  3099.    Architectural Considerations for NERV - a General Purpose Neural
  3100.    Network Simulation System.\\
  3101.    In {\it Workshop on Parallel Processing: Logic, Organization and
  3102.    Technology -- WOPPLOT 89}, pages 183-195. Springer Verlag, Mars 1989.
  3103.    ISBN: 3-5405-5027-5.
  3104.  
  3105.    {\bf NP -- Neural Processor}\\
  3106.    D.A.Orrey, D.J.Myers, and J.M.Vincent.\\
  3107.    A high performance digital processor for implementing large artificial
  3108.    neural networks.\\
  3109.    In {\it Proceedings of of the IEEE 1991 Custom Integrated Circuits
  3110.    Conference}, pages 16.3/1-4. IEEE Comput. Soc. Press, May 1991. 
  3111.    ISBN: 0-7883-0015-7.
  3112.  
  3113.    {\bf RAP -- Ring Array Processor }\\
  3114.    N.Morgan, J.Beck, P.Kohn, J.Bilmes, E.Allman, and J.Beer.\\
  3115.    The ring array processor: A multiprocessing peripheral for connectionist
  3116.    applications. \\
  3117.    In {\it Journal of Parallel and Distributed Computing}, pages
  3118.    248-259, April 1992.
  3119.  
  3120.    {\bf RENNS -- REconfigurable Neural Networks Server}\\
  3121.    O.Landsverk, J.Greipsland, J.A.Mathisen, J.G.Solheim, and L.Utne.\\
  3122.    RENNS - a Reconfigurable Computer System for Simulating Artificial
  3123.    Neural Network Algorithms.\\
  3124.    In {\it Parallel and Distributed Computing Systems, Proceedings of the
  3125.    ISMM 5th International Conference}, pages 251-256. The International
  3126.    Society for Mini and Microcomputers - ISMM, October 1992. 
  3127.    ISBN: 1-8808-4302-1.
  3128.  
  3129.    {\bf SMART -- Sparse Matrix Adaptive and Recursive Transforms}\\
  3130.    P.Bessiere, A.Chams, A.Guerin, J.Herault, C.Jutten, and J.C.Lawson.\\
  3131.    From Hardware to Software: Designing a ``Neurostation''.\\
  3132.    In {\it VLSI design of Neural Networks}, pages 311-335, June 1990.
  3133.  
  3134.    {\bf SNAP -- Scalable Neurocomputer Array Processor}
  3135.    E.Wojciechowski.\\
  3136.    SNAP: A parallel processor for implementing real time neural networks.\\
  3137.    In {\it Proceedings of the IEEE 1991 National Aerospace and Electronics
  3138.    Conference; NAECON-91}, volume 2, pages 736-742. IEEE Comput.Soc.Press,
  3139.    May 1991.
  3140.  
  3141.    {\bf Toroidal Neural Network Processor}\\
  3142.    S.Jones, K.Sammut, C.Nielsen, and J.Staunstrup.\\
  3143.    Toroidal Neural Network: Architecture and Processor Granularity
  3144.    Issues.\\
  3145.    In {\it VLSI design of Neural Networks}, pages 229-254, June 1990.
  3146.  
  3147.    {\bf SMART and SuperNode}
  3148.    P. Bessi`ere, A. Chams, and P. Chol. 
  3149.    MENTAL : A virtual machine approach to artificial neural networks 
  3150.    programming. In NERVES, ESPRIT B.R.A. project no 3049, 1991. 
  3151.  
  3152.  
  3153.    \subsubsection{Standard Computers}
  3154.  
  3155.    {\bf EMMA-2}\\
  3156.    R.Battiti, L.M.Briano, R.Cecinati, A.M.Colla, and P.Guido.\\
  3157.    An application oriented development environment for Neural Net models on
  3158.    multiprocessor Emma-2.\\
  3159.    In {\it Silicon Architectures for Neural Nets; Proceedings for the IFIP
  3160.    WG.10.5 Workshop}, pages 31-43. North Holland, November 1991. 
  3161.    ISBN: 0-4448-9113-7.
  3162.  
  3163.    {\bf iPSC/860 Hypercube}\\
  3164.    D.Jackson, and D.Hammerstrom\\
  3165.    Distributing Back Propagation Networks Over the Intel iPSC/860
  3166.    Hypercube}\\ 
  3167.    In {\it IJCNN91-Seattle: International Joint Conference on Neural
  3168.    Networks}, volume 1, pages 569-574. IEEE Comput. Soc. Press, July 1991.
  3169.    ISBN: 0-7083-0164-1.
  3170.  
  3171.    {\bf SCAP -- Systolic/Cellular Array Processor}\\
  3172.    Wei-Ling L., V.K.Prasanna, and K.W.Przytula.\\
  3173.    Algorithmic Mapping of Neural Network Models onto Parallel SIMD
  3174.    Machines.\\
  3175.    In {\it IEEE Transactions on Computers}, 40(12), pages 1390-1401,
  3176.    December 1991. ISSN: 0018-9340.
  3177.  
  3178.    ------------------------------------------------------------------------
  3179.  
  3180. 20. A: Databases for experimentation with NNs?
  3181. ==============================================
  3182.  
  3183.     1. The neural-bench Benchmark collection
  3184.     ++++++++++++++++++++++++++++++++++++++++
  3185.  
  3186.       Accessible via anonymous FTP on ftp.cs.cmu.edu
  3187.       [128.2.206.173] in directory /afs/cs/project/connect/bench. In
  3188.       case of problems or if you want to donate data, email
  3189.       contact is "neural-bench@cs.cmu.edu". The data sets in
  3190.       this repository include the 'nettalk' data, 'two spirals',
  3191.       protein structure prediction, vowel recognition, sonar signal
  3192.       classification, and a few others. 
  3193.  
  3194.     2. Proben1
  3195.     ++++++++++
  3196.  
  3197.       Proben1 is a collection of 12 learning problems consisting
  3198.       of real data. The datafiles all share a single simple common
  3199.       format. Along with the data comes a technical report
  3200.       describing a set of rules and conventions for performing
  3201.       and reporting benchmark tests and their results. Accessible
  3202.       via anonymous FTP on ftp.cs.cmu.edu [128.2.206.173] as 
  3203.       /afs/cs/project/connect/bench/contrib/prechelt/proben1.tar.gz.
  3204.       and also on ftp.ira.uka.de [129.13.10.90] as 
  3205.       /pub/neuron/proben.tar.gz. The file is about 1.8 MB and
  3206.       unpacks into about 20 MB. 
  3207.  
  3208.     3. UCI machine learning database
  3209.     ++++++++++++++++++++++++++++++++
  3210.  
  3211.       Accessible via anonymous FTP on ics.uci.edu [128.195.1.1]
  3212.       in directory /pub/machine-learning-databases". 
  3213.  
  3214.     4. NIST special databases of the National Institute Of
  3215.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++
  3216.       Standards And Technology:
  3217.       +++++++++++++++++++++++++
  3218.  
  3219.       Several large databases, each delivered on a CD-ROM.
  3220.       Here is a quick list. 
  3221.        o NIST Binary Images of Printed Digits, Alphas, and
  3222.          Text 
  3223.        o NIST Structured Forms Reference Set of Binary
  3224.          Images 
  3225.        o NIST Binary Images of Handwritten Segmented
  3226.          Characters 
  3227.        o NIST 8-bit Gray Scale Images of Fingerprint Image
  3228.          Groups 
  3229.        o NIST Structured Forms Reference Set 2 of Binary
  3230.          Images 
  3231.        o NIST Test Data 1: Binary Images of Hand-Printed
  3232.          Segmented Characters 
  3233.        o NIST Machine-Print Database of Gray Scale and
  3234.          Binary Images 
  3235.        o NIST 8-Bit Gray Scale Images of Mated
  3236.          Fingerprint Card Pairs 
  3237.        o NIST Supplemental Fingerprint Card Data (SFCD)
  3238.          for NIST Special Database 9 
  3239.        o NIST Binary Image Databases of Census Miniforms
  3240.          (MFDB) 
  3241.        o NIST Mated Fingerprint Card Pairs 2 (MFCP 2) 
  3242.        o NIST Scoring Package Release 1.0 
  3243.        o NIST FORM-BASED HANDPRINT
  3244.          RECOGNITION SYSTEM 
  3245.       Here are example descriptions of two of these databases: 
  3246.  
  3247.       NIST special database 2: Structured Forms Reference Set
  3248.       -------------------------------------------------------
  3249.       (SFRS)
  3250.       ------
  3251.  
  3252.       The NIST database of structured forms contains 5,590 full
  3253.       page images of simulated tax forms completed using
  3254.       machine print. THERE IS NO REAL TAX DATA IN
  3255.       THIS DATABASE. The structured forms used in this
  3256.       database are 12 different forms from the 1988, IRS 1040
  3257.       Package X. These include Forms 1040, 2106, 2441, 4562,
  3258.       and 6251 together with Schedules A, B, C, D, E, F and SE.
  3259.       Eight of these forms contain two pages or form faces
  3260.       making a total of 20 form faces represented in the database.
  3261.       Each image is stored in bi-level black and white raster
  3262.       format. The images in this database appear to be real forms
  3263.       prepared by individuals but the images have been
  3264.       automatically derived and synthesized using a computer
  3265.       and contain no "real" tax data. The entry field values on
  3266.       the forms have been automatically generated by a
  3267.       computer in order to make the data available without the
  3268.       danger of distributing privileged tax information. In
  3269.       addition to the images the database includes 5,590 answer
  3270.       files, one for each image. Each answer file contains an
  3271.       ASCII representation of the data found in the entry fields
  3272.       on the corresponding image. Image format documentation
  3273.       and example software are also provided. The uncompressed
  3274.       database totals approximately 5.9 gigabytes of data. 
  3275.  
  3276.       NIST special database 3: Binary Images of Handwritten
  3277.       -----------------------------------------------------
  3278.       Segmented Characters (HWSC)
  3279.       ---------------------------
  3280.  
  3281.       Contains 313,389 isolated character images segmented
  3282.       from the 2,100 full-page images distributed with "NIST
  3283.       Special Database 1". 223,125 digits, 44,951 upper-case, and
  3284.       45,313 lower-case character images. Each character image
  3285.       has been centered in a separate 128 by 128 pixel region,
  3286.       error rate of the segmentation and assigned classification is
  3287.       less than 0.1%. The uncompressed database totals
  3288.       approximately 2.75 gigabytes of image data and includes
  3289.       image format documentation and example software.
  3290.  
  3291.       The system requirements for all databases are a 5.25"
  3292.       CD-ROM drive with software to read ISO-9660 format.
  3293.       Contact: Darrin L. Dimmick; dld@magi.ncsl.nist.gov;
  3294.       (301)975-4147
  3295.  
  3296.       The prices of the databases are between US$ 250 and 1895
  3297.       If you wish to order a database, please contact: Standard
  3298.       Reference Data; National Institute of Standards and
  3299.       Technology; 221/A323; Gaithersburg, MD 20899; Phone:
  3300.       (301)975-2208; FAX: (301)926-0416
  3301.  
  3302.       Samples of the data can be found by ftp on
  3303.       sequoyah.ncsl.nist.gov in directory /pub/data A more
  3304.       complete description of the available databases can be
  3305.       obtained from the same host as /pub/databases/catalog.txt 
  3306.  
  3307.     5. CEDAR CD-ROM 1: Database of Handwritten Cities,
  3308.     ++++++++++++++++++++++++++++++++++++++++++++++++++
  3309.       States, ZIP Codes, Digits, and Alphabetic Characters
  3310.       ++++++++++++++++++++++++++++++++++++++++++++++++++++
  3311.  
  3312.       The Center Of Excellence for Document Analysis and
  3313.       Recognition (CEDAR) State University of New York at
  3314.       Buffalo announces the availability of CEDAR CDROM 1:
  3315.       USPS Office of Advanced Technology The database
  3316.       contains handwritten words and ZIP Codes in high
  3317.       resolution grayscale (300 ppi 8-bit) as well as binary
  3318.       handwritten digits and alphabetic characters (300 ppi
  3319.       1-bit). This database is intended to encourage research in
  3320.       off-line handwriting recognition by providing access to
  3321.       handwriting samples digitized from envelopes in a working
  3322.       post office. 
  3323.  
  3324.            Specifications of the database include:
  3325.            +    300 ppi 8-bit grayscale handwritten words (cities,
  3326.                 states, ZIP Codes)
  3327.                 o    5632 city words
  3328.                 o    4938 state words
  3329.                 o    9454 ZIP Codes
  3330.            +    300 ppi binary handwritten characters and digits:
  3331.                 o    27,837 mixed alphas  and  numerics  segmented
  3332.                      from address blocks
  3333.                 o    21,179 digits segmented from ZIP Codes
  3334.            +    every image supplied with  a  manually  determined
  3335.                 truth value
  3336.            +    extracted from live mail in a  working  U.S.  Post
  3337.                 Office
  3338.            +    word images in the test  set  supplied  with  dic-
  3339.                 tionaries  of  postal  words that simulate partial
  3340.                 recognition of the corresponding ZIP Code.
  3341.            +    digit images included in test  set  that  simulate
  3342.                 automatic ZIP Code segmentation.  Results on these
  3343.                 data can be projected to overall ZIP Code recogni-
  3344.                 tion performance.
  3345.            +    image format documentation and software included
  3346.  
  3347.       System requirements are a 5.25" CD-ROM drive with
  3348.       software to read ISO-9660 format. For any further
  3349.       information, including how to order the database, please
  3350.       contact: Jonathan J. Hull, Associate Director, CEDAR, 226
  3351.       Bell Hall State University of New York at Buffalo,
  3352.       Buffalo, NY 14260; hull@cs.buffalo.edu (email) 
  3353.  
  3354.     6. AI-CD-ROM (see under answer 13)
  3355.     ++++++++++++++++++++++++++++++++++
  3356.  
  3357.     7. Time series archive
  3358.     ++++++++++++++++++++++
  3359.  
  3360.       Various datasets of time series (to be used for prediction
  3361.       learning problems) are available for anonymous ftp from
  3362.       ftp.santafe.edu [192.12.12.1] in /pub/Time-Series".
  3363.       Problems are for example: fluctuations in a far-infrared
  3364.       laser; Physiological data of patients with sleep apnea; High
  3365.       frequency currency exchange rate data; Intensity of a white
  3366.       dwarf star; J.S. Bachs final (unfinished) fugue from "Die
  3367.       Kunst der Fuge"
  3368.  
  3369.       Some of the datasets were used in a prediction contest and
  3370.       are described in detail in the book "Time series prediction:
  3371.       Forecasting the future and understanding the past", edited
  3372.       by Weigend/Gershenfield, Proceedings Volume XV in the
  3373.       Santa Fe Institute Studies in the Sciences of Complexity
  3374.       series of Addison Wesley (1994). 
  3375.  
  3376.    ------------------------------------------------------------------------
  3377.  
  3378.    That's all folks.
  3379.  
  3380.    Acknowledgements: Thanks to all the people who helped to get the stuff
  3381.                      above into the posting. I cannot name them all, because
  3382.                      I would make far too many errors then. :->
  3383.  
  3384.                      No?  Not good?  You want individual credit?
  3385.                      OK, OK. I'll try to name them all. But: no guarantee....
  3386.  
  3387.      THANKS FOR HELP TO:
  3388.    (in alphabetical order of email adresses, I hope)
  3389.  
  3390.     o Steve Ward <71561.2370@CompuServe.COM> 
  3391.     o Allen Bonde <ab04@harvey.gte.com> 
  3392.     o Accel Infotech Spore Pte Ltd <accel@solomon.technet.sg> 
  3393.     o Ales Krajnc <akrajnc@fagg.uni-lj.si> 
  3394.     o Alexander Linden <al@jargon.gmd.de> 
  3395.     o Matthew David Aldous <aldous@mundil.cs.mu.OZ.AU> 
  3396.     o S.Taimi Ames <ames@reed.edu> 
  3397.     o Axel Mulder <amulder@move.kines.sfu.ca> 
  3398.     o anderson@atc.boeing.com 
  3399.     o Andy Gillanders <andy@grace.demon.co.uk> 
  3400.     o Davide Anguita <anguita@ICSI.Berkeley.EDU> 
  3401.     o Avraam Pouliakis <apou@leon.nrcps.ariadne-t.gr> 
  3402.     o Kim L. Blackwell <avrama@helix.nih.gov> 
  3403.     o Mohammad Bahrami <bahrami@cse.unsw.edu.au> 
  3404.     o Paul Bakker <bakker@cs.uq.oz.au> 
  3405.     o Stefan Bergdoll <bergdoll@zxd.basf-ag.de> 
  3406.     o Jamshed Bharucha <bharucha@casbs.Stanford.EDU> 
  3407.     o Yijun Cai <caiy@mercury.cs.uregina.ca> 
  3408.     o L. Leon Campbell <campbell@brahms.udel.edu> 
  3409.     o Craig Watson <craig@magi.ncsl.nist.gov> 
  3410.     o Yaron Danon <danony@goya.its.rpi.edu> 
  3411.     o David Ewing <dave@ndx.com> 
  3412.     o David DeMers <demers@cs.ucsd.edu> 
  3413.     o Denni Rognvaldsson <denni@thep.lu.se> 
  3414.     o Duane Highley <dhighley@ozarks.sgcl.lib.mo.us> 
  3415.     o Dick.Keene@Central.Sun.COM 
  3416.     o DJ Meyer <djm@partek.com> 
  3417.     o Donald Tveter <drt@mcs.com> 
  3418.     o Athanasios Episcopos
  3419.       <EPISCOPO@icarus.som.clarkson.edu> 
  3420.     o Frank Schnorrenberg <fs0997@easttexas.tamu.edu> 
  3421.     o Gary Lawrence Murphy <garym@maya.isis.org> 
  3422.     o gaudiano@park.bu.edu 
  3423.     o Lee Giles <giles@research.nj.nec.com> 
  3424.     o Glen Clark <opto!glen@gatech.edu> 
  3425.     o Phil Goodman <goodman@unr.edu> 
  3426.     o guy@minster.york.ac.uk 
  3427.     o Joerg Heitkoetter
  3428.       <heitkoet@lusty.informatik.uni-dortmund.de> 
  3429.     o Ralf Hohenstein <hohenst@math.uni-muenster.de> 
  3430.     o Gamze Erten <ictech@mcimail.com> 
  3431.     o Ed Rosenfeld <IER@aol.com> 
  3432.     o Jean-Denis Muller <jdmuller@vnet.ibm.com> 
  3433.     o Jeff Harpster <uu0979!jeff@uu9.psi.com> 
  3434.     o Jonathan Kamens <jik@MIT.Edu> 
  3435.     o J.J. Merelo <jmerelo@kal-el.ugr.es> 
  3436.     o Jon Gunnar Solheim <jon@kongle.idt.unit.no> 
  3437.     o Josef Nelissen <jonas@beor.informatik.rwth-aachen.de> 
  3438.     o Joey Rogers <jrogers@buster.eng.ua.edu> 
  3439.     o Subhash Kak <kak@gate.ee.lsu.edu> 
  3440.     o Ken Karnofsky <karnofsky@mathworks.com> 
  3441.     o Kjetil.Noervaag@idt.unit.no 
  3442.     o Luke Koops <koops@gaul.csd.uwo.ca> 
  3443.     o William Mackeown <mackeown@compsci.bristol.ac.uk> 
  3444.     o Mark Plumbley <mark@dcs.kcl.ac.uk> 
  3445.     o Peter Marvit <marvit@cattell.psych.upenn.edu> 
  3446.     o masud@worldbank.org 
  3447.     o Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp> 
  3448.     o Madhav Moganti <mmogati@cs.umr.edu> 
  3449.     o Jyrki Alakuijala <more@ee.oulu.fi> 
  3450.     o Michael Reiss <m.reiss@kcl.ac.uk> 
  3451.     o mrs@kithrup.com 
  3452.     o Maciek Sitnik <msitnik@plearn.edu.pl> 
  3453.     o R. Steven Rainwater <ncc@ncc.jvnc.net> 
  3454.     o Paolo Ienne <Paolo.Ienne@di.epfl.ch> 
  3455.     o Paul Keller <pe_keller@ccmail.pnl.gov> 
  3456.     o Michael Plonski <plonski@aero.org> 
  3457.     o Lutz Prechelt <prechelt@ira.uka.de> [creator of FAQ] 
  3458.     o Richard Andrew Miles Outerbridge
  3459.       <ramo@uvphys.phys.uvic.ca> 
  3460.     o Robin L. Getz <rgetz@esd.nsc.com> 
  3461.     o Richard Cornelius <richc@rsf.atd.ucar.edu> 
  3462.     o Rob Cunningham <rkc@xn.ll.mit.edu> 
  3463.     o Robert.Kocjancic@IJS.si 
  3464.     o Stefan Vogt <s_vogt@cis.umassd.edu> 
  3465.     o Osamu Saito <saito@nttica.ntt.jp> 
  3466.     o Warren Sarle <saswss@unx.sas.com> 
  3467.     o Scott Fahlman <sef+@cs.cmu.edu> 
  3468.     o <seibert@ll.mit.edu> 
  3469.     o Sheryl Cormicle <sherylc@umich.edu> 
  3470.     o Ted Stockwell <ted@aps1.spa.umn.edu> 
  3471.     o Serge Waterschoot <swater@minf.vub.ac.be> 
  3472.     o Thomas G. Dietterich <tgd@research.cs.orst.edu> 
  3473.     o Thomas.Vogel@cl.cam.ac.uk 
  3474.     o Ulrich Wendl <uli@unido.informatik.uni-dortmund.de> 
  3475.     o M. Verleysen <verleysen@dice.ucl.ac.be> 
  3476.     o Sherif Hashem <vg197@neutrino.pnl.gov> 
  3477.     o Matthew P Wiener <weemba@sagi.wistar.upenn.edu> 
  3478.     o Wesley Elsberry <welsberr@orca.tamu.edu> 
  3479.  
  3480.    Bye
  3481.  
  3482.      Lutz
  3483.  
  3484.    Neural network FAQ / Lutz Prechelt, prechelt@ira.uka.de
  3485. -- 
  3486. Lutz Prechelt   (http://wwwipd.ira.uka.de/~prechelt/)   | Whenever you 
  3487. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  3488. Universitaet Karlsruhe;  76128 Karlsruhe;  Germany      | they get
  3489. (Voice: +49/721/608-4068, FAX: +49/721/694092)          | less simple.
  3490.